Beiträge von void im Thema „KI und Dharma“

    Fazit: Nicht die KI ist schlecht. Der sorglose Umgang damit.

    Jemand hat neulich untersucht, welche Ratschläge auf TikTok im Bezug auf psychische Krankheiten gegeben werden und es wurde festgestellt, dass über die Hälfte der Information falsch oder schädlich war. Vermutlich ist es so, dass man wenn man da ChatGPT fragt weniger Unsinn geliefert bekommt. Ist das nicht seltsam?

    Wolfram Alpha ist keine KI. Seine mathematischen Aussagen beruhen auf mathematischen Berechnungen via Mathematica, sind also deterministisch


    Liebe Grüße,

    Aravind.

    Der Begriff der "Künstlichen Intelligenz" der sich verändert hat. Früher fielen da auch Wissensbasierte Systeme drunter.

    Sachen die früher als Inbegriff der Schachprogramme und Routenplaner ( z.B Google Maps) haben durch ihre Etabliertheit den Status als "künstliche Intelligenz" eingebüßt. Aber da auch neuronale Netzte können doch deterministisch sein während es klassische Berechnungen in der Realität nicht sind..

    Bei "Buddhist Reasoning" geht es ja genau um Argumentation - also dass man bestimmte Hypothesen aufstellt und diese dann gut begründet. Oder eben die Schwachstellen um Argument des anderen aufdeckt.


    Es gibt KI Projekte die sich genau mit diesem logischen Folgern und Begründen beschäftigen. So beschäftigt sich Wolfram Alpha mit mathematischen Beweisen und auch die semantische Suchmaschine IBM Watson versucht tatsächlich logisch zu folgern.


    ChatGPT denkt dagegen nicht wirklich logisch sondern es assoziiert nur. Ein lustiges Beispiel war ja, dass es in einer früheren Version auf die Frage , welches Säugetier die größten Eier legt, antwortete es sei der Elefant und behauptet, Elefanteneier seien bis zu 23 Zentimeter groß und rund zweieinhalb Kilo schwer. IBM Watson würde, weil er ein semantisches Netz verwendet, nicht auf solche Suggestivfragen hereinfallen.


    Es ist nicht sinnvoll mit einem System, dass des logischen Folgern nicht fähig ist, dieses zu üben.