Beiträge von Sudhana im Thema „Buddhismus und ChatGPT“

    Ich habe mal einen sehr sachlich kritischen Brief geschrieben und Chat-GPT gebeten ihn zu überprüfen, dass der nicht Elemente enthält, die mir juristisch zum Verhängnis werden können und ich muss sagen, mein Brief wurde nicht als juristisch bedenklich beurteilt

    Na dann kann ja nichts schief gehen. :lol: Mal ein praktisches Beispiel für Halluzitationen:

    Der Artikel geht noch weiter ... Am 22.06. berichtete dann Reuters:

    Der US-Bezirksrichter P. Kevin Castel in Manhattan verurteilte die Anwälte Steven Schwartz, Peter LoDuca und ihre Kanzlei Levidow, Levidow & Oberman zur Zahlung einer Geldstrafe von insgesamt 5.000 Dollar.

    Viel zu wenig, wenn Ihr mich fragt. Leider erfährt man nicht, was die Anwaltskanzlei ihrem Mandaten für diesen Mist in Rechnung gestellt hat ...

    Woher willst du wissen, dass dir dein Kopf keinen Blödsinn erzählt?

    Daran lässt sich arbeiten. Was sicher sinnvoller ist, als sich von Anderen oder einem Programm Blödsinn erzählen zu lassen.

    ChatGPT gibt teilweise sehr kompetente Antworten raus.

    Möglicherweise. ChatGPT gibt teilweise aber auch sehr inkompetente Antworten raus. Schlecht, wenn man das eine nicht vom anderen unterscheiden kann. Und wenn man das kann, braucht man auch keine 'AI' (mit "intelligence" hat das selbstredend Null zu tun) zu fragen.

    Ein Tipp für jeden, der vielleicht nach Rat gefragt wird und direkt keine Antwort parat hat, auch mal ChatGPT zu fragen.

    Merkwürdiger Tip. Wenn ich die Antwort "nicht parat" habe - wie soll ich dann einschätzen, ob ChatGPT mir da nicht schlicht Blödsinn erzählt. Und so etwas soll ich dann als "Rat" weitergeben? Womöglich noch als einen, der auf meinem eigenen Mist gewachsen ist?

    Arvind Narayanan nennt ChatGPT einen "bullshit generator" und genau das ist es auch.

    Decoding the Hype About AI – The Markup
    A conversation with Arvind Narayanan
    themarkup.org

    Besondere Vorsicht ist geboten, wenn ChatGPT den produzierten Unfug mit angeblichen Zitaten "belegt". Kate Crawford hat dafür den Begriff hallucitations (Halluzitationen) geprägt. ChatGPT ist das, was man bei Menschen einen notorischen Lügner nennt.

    Im beruflichen Kontext hatte ich mich zeitweise etwas mit sog. Expertensystemen befasst, seit sich deren Einführung in meiner Branche abzuzeichnen begann. Expertensysteme sind die Fachidioten unter den KI-Programmen. Die können wirklich ungeheuer leistungsfähig sein (wenn man sie bedienen kann) und vielleicht haben sie das Potential, irgendwann das "Reich der Notwendigkeit" zu überwinden. Ob das wünschenswert wäre, ist eine andere Frage.


    Wie es nun unter Menschen auch multiple Fachidioten gibt (bin wohl selbst einer), so sind auch multiple Expertensysteme konstruierbar, wie etwa der multiple Übersetzer DeepL. Diese Multiplizität lässt sich theoretisch bis hin zu einem umfassenden Expertensystem ausbauen. Dann sind wir in der glücklichen Lage der Fraggles, uns für zuverlässigen Rat in allen Fragen des Lebens an die allwissende Müllhalde Marjorie wenden zu können. Wir bräuchten nicht mal mehr die Ratten als Hohepriester des Orakels, ein Abo genügt. Bei Google muss man noch selbst im Müll wühlen, um gelegentlich mal was Brauchbares zu finden..

    Wenn das mit der Expertise noch nicht so recht klappen will (wie bei ChatGPT) - das sind Kinderkrankheiten und wegen solcher Mängel ist das ja auch ein kostenfreier Gimmick. Kein multiples, sondern ein Schaumschläger-Expertensystem mit anspruchslosem Interface. Ich denke, die perfekte Imitation einer Intelligenz, die Experte auf (fast) allen Gebieten ist, ist theoretisch machbar - wenn auch wohl kaum noch zu meinen Lebzeiten. Das eigentliche Problem ist jedoch kein technisches, sondern ein soziales: wer entscheidet über die Algorithmen, die dann unser Bild der Realität ganz wesentlich bestimmen werden? Was bewahrt uns davor, dann nur noch in einem deepfake von Realität zu leben?


    Was das Original von der Simulation auf jeden Fall unterscheidet: es ist duḥkha unterworfen. Das ist eine Kombination von Nullen und Einsen nicht, so kompliziert sie auch sein mag.

    Der Text oben kommt von ChatGPT.

    Das war gelungen, Chapeau! Ohne mich selbst loben zu wollen - nach den ersten zwei, drei Sätzen habe ich angefangen, den Text nur noch zu überfliegen und dabei gedacht 'was schreibt er denn jetzt???'. Um nach zwei Dritteln komplett das Interesse zu verlieren und weiterzuscrollen ... :roll:

    Womit ich zu dem Thema schon mal Stellung genommen hätte ...

    ChatGPT hat große Ähnlichkeiten mit Politikern. Sehr viel reden, niemandem auf die Füße treten, wenig sagen und Kompetenz heucheln. :|

    Ich denke, wenn man diese gemeinsame Charakteristik als nicht nur ähnlich begreift, sondern mit einem gemeinsamen Begriff benennen möchte, böte sich dafür Harry G. Frankfurts 'bullshit' an. Zumal dies auch umfasst, dass die Leute erzählt bekommen, was sie der statistischen Erwartung nach hören möchten. Da bietet sich Buddhismus als Anwendungsbereich doch geradezu an 8) .