Bei "Buddhist Reasoning" geht es ja genau um Argumentation - also dass man bestimmte Hypothesen aufstellt und diese dann gut begründet. Oder eben die Schwachstellen um Argument des anderen aufdeckt.
Es gibt KI Projekte die sich genau mit diesem logischen Folgern und Begründen beschäftigen. So beschäftigt sich Wolfram Alpha mit mathematischen Beweisen und auch die semantische Suchmaschine IBM Watson versucht tatsächlich logisch zu folgern.
ChatGPT denkt dagegen nicht wirklich logisch sondern es assoziiert nur. Ein lustiges Beispiel war ja, dass es in einer früheren Version auf die Frage , welches Säugetier die größten Eier legt, antwortete es sei der Elefant und behauptet, Elefanteneier seien bis zu 23 Zentimeter groß und rund zweieinhalb Kilo schwer. IBM Watson würde, weil er ein semantisches Netz verwendet, nicht auf solche Suggestivfragen hereinfallen.
Es ist nicht sinnvoll mit einem System, dass des logischen Folgern nicht fähig ist, dieses zu üben.