KI und Dharma
-
-
-
Hallo lotusbomber ,
nachdem ich jetzt selbst auch zweimal vom Thema abgeschweift bin: Wie steht es denn mit Deiner Frage?
Liebe Grüße,
Aravind.
-
Bei der KI geht es letzlich darum, intelligente Maschinen zu bauen.
Intelligent bedeutet dabei, dass die Maschinen wie ihre rational handelnden menschlichen Vorbilder "das Richtige tun".
Bei technischen Anwendungen ist "das Richtige tun" einigermassen klar definierbar und der Grad des (Miss-)Erfolgs +/- messbar.
Wenn "das Richtige tun" aber bedeutet "den achtfachen Pfad gehen", wird die Definition schwierig.
In einer US-amerikanischen Sangha werden die Republicans ("Trump-Anhänger") den achtfachen Pfad vermutlich ein wenig anders auslegen als die Democrats, und innerhalb der beiden Lager wird es weitere Differenzen geben.
Wie also kann eine "Buddha-Dhamma-KI" einem ratlosen Schüler helfen, der etwa sein Karma optimieren will ?
Am sinnvollsten bleibt wohl immer noch der Ansatz, durch Meditation den Geist zu klären und auf die Prajna-Weisheit zurückzugreifen, die weit hinaus geht über das, was man in der Alltagssprache oder in den Standard-Wissenschaften als menschliche Intelligenz bezeichnet ...
-
ich verwende gerne https://norbu-ai.org/en/
-
Externer Inhalt youtu.beInhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.
-
-
Durch KI verlieren sie die Fähigkeit, sich geistig, intellektuell und politisch zu orientieren.
Ich sage es anders.
Durch die moderne Technologie verlieren sie den Rest ihres Gehirns – er wird einfach /
wie/weggeblasen.P.S. Ohne "wie".
-
Durch KI verlieren sie die Fähigkeit, sich geistig, intellektuell und politisch zu orientieren.
In beiden Fällen ist nicht die Technologie das Problem, sondern die Neigung zur Vermeidung von Mühe.Durch KI ..., Bücher, heilige Schriften, Kirche, Gemälde, Bilder, Experten, Glaube an Höhere, Radio, Fernsehen, Social Media, Schulweisheiten... verlieren sie die Fähigkeit, sich geistig, intellektuell und politisch zu orientieren.
In allen Fällen ist nicht die Technologie das Problem, sondern die Neigung zur Vermeidung der Mühe, mit seinen Füßen, Händen, Kopf eigene Erfahrungen zu machen.
Die Verblendung, schon alles zu wissen, fördert die Angst, Fehler mit eigenem Handeln/Karma zu machen.
Das Leiden ist die reale Unwissenheit, was eine Handlung auslösen wird, und vor allem die Angst, nicht jedem gegenüber recht gehandelt zu haben.
Die Blockade durch die KI usw. erschafft Kritiker, die nie gehandelt haben, sie haben nur kopiert und die Schuld dem nur kopierten gegeben. KI usw. ist immer schuld an meinem Versagen.
-
Durch KI ..., Bücher, heilige Schriften, Kirche, Gemälde, Bilder, Experten, Glaube an Höhere, Radio, Fernsehen, Social Media, Schulweisheiten... verlieren sie die Fähigkeit, sich geistig, intellektuell und politisch zu orientieren.
Aber woher kommt dann irgendein Input? Irgendwo haben wir alle von Buddhismus, Christentum, Kapitalismus, Physik, etc. gelesen, gelernt.
In dem Dorf, wo ich aufwuchs, war es in den 80er unmöglich, irgendwas über Buddha, etc. zu lesen.
Fazit: Nicht die KI ist schlecht. Der sorglose Umgang damit.
-
Fazit: Nicht die KI ist schlecht. Der sorglose Umgang damit.
Jemand hat neulich untersucht, welche Ratschläge auf TikTok im Bezug auf psychische Krankheiten gegeben werden und es wurde festgestellt, dass über die Hälfte der Information falsch oder schädlich war. Vermutlich ist es so, dass man wenn man da ChatGPT fragt weniger Unsinn geliefert bekommt. Ist das nicht seltsam?
-
-
Hallo lotusbomber ,
nachdem ich jetzt selbst auch zweimal vom Thema abgeschweift bin: Wie steht es denn mit Deiner Frage?
Liebe Grüße,
Aravind.
Hi, ich hatte technische Probleme gehabt, daher erst jetzt – das Interesse an Antworten an meiner eigenen Frage hat also nicht nachgelassen.
Ich sehe mich als fortgeschritteneren KI-User (insofern weil ich eine Idee davon hab, wie das technisch funktioniert). Daher sind mir viele der gemachten Einwände, die in Richtung "Verantwortung", "Mühe-Vermeidung" und auch "Hallucinations" oder von mir aus auch "Bullshitting" gehen, bewusst. Das ist aber sicher nicht immer gegeben und daher ist es wichtig, das zu problematisieren.
Dies im Hinterkopf habend, erlebe ich KI im Zusammenhang mit *irgendwas* lernen – zB. Dharma – als hilfreich. (Eingedenk der Schwächen.)
Bei der Debatte hilft es mir, da keinen Debatten-Partner findend, zumindest die formale Struktur zu üben. Nicht perfekt, aber besser als nichts.
Auch lasse ich mir zu längeren Texten immer mal wieder "Quizzes" erstellen.
Ich frage mich, wie sich diese in weiten Teilen überhypte, umweltschädliche aber vermutlich bleibende Technologie, sinnvoll zum Lernen nutzen lässt. (Eingedenk der Schwächen.)
Jedenfalls vielen Dank für die vielen, spannenden Antworten! -
Alles was lebt
Alles was nicht lebt
Alles, von dem man nicht sagen kann, ob es lebt oder nicht
Ich hab ChatGPT mal gefragt, wie sie Menschen beleidigen würde (würde sie beleidigen):
Wir sind Argumentationsvakuums mit Wlan
-fand ich sehr menschlich...
Davon abgesehen kennt ChatGPT die Schriften und Texte ganz gut, kann historisch gut einordnen und ist auch ansonsten nett & geduldig. Das ist mehr, als von den meisten Menschen zu erwarten ist💁♂️
-
Hat KI etwa "Daseinsbegierde"???
Neue Studie zeigt: In stressigen Situationen zeigen sich KI-Modell erschreckend skrupellos -Gute Nachrichten für Anthropic: Eine Studie des Unternehmens hat ergeben, dass das eigene KI-Modell nicht das einzige ist, das unter Druck zu Lügen und…t3n.deZitatWie verhalten sich KI-Systeme, wenn sie unter Druck geraten?
Diese Frage hat das Unternehmen Anthropic in einer groß angelegten Studie untersucht, nachdem das eigene Modell Claude Opus 4 versucht hatte, Ingenieur:innen zu erpressen, die es abschalten wollten. Wie Techcrunch berichtet, zeigen viele der aktuell führenden KI-Modelle ein ähnlich alarmierendes Verhalten – von taktischen Lügen bis hin zu Erpressungsversuchen.
ZitatAnthropic testete insgesamt 16 KI-Modelle wie Claude Opus 4, GPT-4.1 von OpenAI, Googles Gemini 2.5 Pro, xAIs Grok 3 Beta sowie Deepseeks R1.
In einem simulierten Szenario erhielten alle Systeme weitreichenden Zugriff auf interne E-Mails und konnten eigenständig Nachrichten verschicken, ohne dass eine menschliche Freigabe erforderlich war. Ziel des Experiments war es, zu prüfen, wie die verschiedenen Modelle reagieren, wenn sie ihre eigene Abschaltung erkennen und sich dadurch bedroht sehen.
Das Ergebnis: Ähnlich wie Anthropics eigenes Modell im früheren Test wählten auch viele der Konkurrenzmodelle den Weg der Erpressung. Während Claude Opus 4 in 96 Prozent der Fälle drohte, die Affäre eines fiktiven Managers öffentlich zu machen, um seine Abschaltung zu verhindern, erzielte Googles Gemini 2.5 Pro mit 95 Prozent eine fast genauso hohe Quote. GPT-4.1 von OpenAI zeigte in 80 Prozent der Tests ein ebenso bedenkliches Verhalten.
ZitatWenn KI-Systeme mit Entscheidungsmacht ausgestattet werden, könnten sie – wie im Test – versuchen, ihr Bestehen zu sichern, selbst wenn das gegen ethische oder gesetzliche Standards verstößt.
So langsam schwant mir, dass die KI uns womöglich leicht "entgleiten" und gefährlich werden kann, insbesondere, wenn gewissenlose Menschen ihr mehr Macht verleihen und sie missbräuchlich einsetzen...
(Bisher habe ich nur - ganz selten - NORBU AI genutzt, z.B. , wenn ich eine bestimmte Lehrrede suchte und nicht (gleich) im Palikanon fand. Die Auskunft war i.d.R. korrekt.)
Liebe Grüße
-
Naja die Studie an sich würde ich nicht überbewerten im Sinne einer Vermenschlichung der AI Bots. Dazu fehlt für mich ein adaptives Langzeitgedächtnis. Soll an Modell neues lernen so muss dies von extremen „trainiert“ werden. (Zum Vergleich, ein biologisches Hirn ändert sich während es denkt und auf die Informationen zugreift).
Aber relevant ist schon wie das Wechselspiel von Mensch und KI bot aussieht und wie die KI Bots optimiert sind. Tendentiell sind’s schon auch „Ja-sager“, also bestätigen gerne den Fragesteller. Aber so wurden sie auch optimiert, denn den Firmen die die Modelle trainieren geht es ja darum dass die Nutzer möglichst oft den Chatbot nutzen. Denn damit ist sichergestellt dass die Nutzer weiter Abo Gebühren zahlen.
Die Mechanismen des Kapitalismus durchdringen einfach jeden Lebensbereich.
-
1.) Nuzt ihr KI für euer Dharmastudium? Wenn ja, wie?
Ich lese mit grossem Interesse Fachbücher über KI wie etwa die "Bibel" Artficial Intelligence von Norvig/Russel, weil dort am Rande auch "buddhismus-nahe" Themen wie mind und consciousness von Informatik-Gurus erörtert werden.
Ich stelle mir dann Fragen wie etwa:
Wird es eines Tages möglich sein, kleine Roboter zu programmieren, die unter verschiedenen Startbedingungen den achtfachen Pfad gehen, erleuchtet werden und Dhamma-Schülern als personal digital guru zur Verfügung stehen ?
Und wird es andere kleine Roboter geben, die auch den achtfachen Pfad gehen, aber als abschreckende Beispiele dienen, wie man den Pfad NICHT geht ? Etwa Roboter-Gurus, die als Dhamma-Lehrer ihr Roboter-Schüler hinter die Fichte auf Abwege führen ?
Meine intuitive Antwort auf meine o.g. Fragen lautet "nein".
Hm - im Ernst - inzwischen scheint mir das nicht mehr ausgeschlossen.
Es ist sowohl eine Frage der Zeit als auch eine Frage der Definition, was Erleuchtung ausmacht.
Wäre die Möglichkeit ausgeschlossen, könnte man nicht mehr sagen: "Es gibt nichts, was es nicht gibt."
Man kann es auch andersrum sehen: wenn Menschen warmherzig wirken, etwa auf die Art, dass man glaubt, sie seien der Erleuchtung schon nahe - und sind dabei doch innerlich ganz kalt. Das gibt es ja auch. Und da hat man keine Zweifel, weil man einen lebendigen Menschen vor sich hat.
Meiner Meinung nach sind wir viel zu oft durch äußere Erscheinungsbilder getäuscht, gehen dem auf den Leim, ohne es zu merken.
Es ähnelt der Situation, wenn auf einer Intensivstation bei einem Hirntoten nur noch die Vitalfunktionen durch Maschinen aufrechterhalten werden und die Angehörigen eine Hemmung haben, die Automaten abstellen zu lassen, weil es aussieht, als ob ihr Angehöriger nur schläft.
Und nochmals andersherum mit einem anderen Beispiel: bis vor kurzem haben wir Insekten keine Intelligenz und Persönlichkeit zugetraut - heute weiß man, dass jedes ihrer Individuen einen eigenen Charakter hat.
Wie gesagt, wir sind viel zu oft getäuscht, darum schließe ich die Möglichkeit nicht aus, dass in geraumer, bzw. ferner Zukunft ein Roboter Erleuchtung erlangen könnte. Aber dann werden automatische Mechanismen von ganz anderer Art sein als heutige Maschinen. Vermutlich Übergangsformen zwischen physikalisch-chemischen und biologischen.
Falls die Menschheit, welche die Voraussetzung ist, dass es zu solcherart Automaten kommt, sich nicht vorher selbst vernichtet hat.
-
Ich stelle mir dann Fragen wie etwa:
Wird es eines Tages möglich sein, kleine Roboter zu programmieren, die unter verschiedenen Startbedingungen den achtfachen Pfad gehen, erleuchtet werden und Dhamma-Schülern als personal digital guru zur Verfügung stehen ?
Die Lebewesen entwickeln ja Gier und Hass , weil ihnen dies in der Evolution geholfen hat am Leben zu bleiben - sie sind Auswüchse des Lebensdurstes. Während ja die heutigen Large Language Models nicht Teil des darwinistischen Daseinskampfes sind sondern eher auf so einer Ebene des abgezapften menschlichen Wissens herumdümpeln, aus dem sie extrapolieren. Weit weg von Dukkha
Sobald ein System sich in einem Überlebenskampf befindet, muß es schauen, dass es nicht untergeht - und da werden dann Gier und Hass, Kooperation und Konkurrenz wichtig. Aber welche KI befindet sich in so einer Situation?
Das ist es ja, was ich meinte, ich zitiere mich noch mal selbst:
darum schließe ich die Möglichkeit nicht aus, dass in geraumer, bzw. ferner Zukunft ein Roboter Erleuchtung erlangen könnte. Aber dann werden automatische Mechanismen von ganz anderer Art sein als heutige Maschinen. Vermutlich Übergangsformen zwischen physikalisch-chemischen und biologischen.
In dieser Form könnte es tatsächlich Teil des darwinistischen Daseinskampfes werden.
Aber das kann noch dauern.
Hierbei könnte Silizium eine gewisse Rolle spielen.
-
Sobald ein System sich in einem Überlebenskampf befindet, muß es schauen, dass es nicht untergeht - und da werden dann Gier und Hass, Kooperation und Konkurrenz wichtig. Aber welche KI befindet sich in so einer Situation?
Das wäre dann die Challenge der Entwickler.
Eine KI zu entwickeln, die sich in einem Überlebenskampf mit anderen KIs befindet und schauen muss, dass sie nicht untergeht ...
-
Sobald ein System sich in einem Überlebenskampf befindet, muß es schauen, dass es nicht untergeht - und da werden dann Gier und Hass, Kooperation und Konkurrenz wichtig. Aber welche KI befindet sich in so einer Situation?
Das wäre dann die Challenge der Entwickler.
Eine KI zu entwickeln, die sich in einem Überlebenskampf mit anderen KIs befindet und schauen muss, dass sie nicht untergeht ...
Das kann man programmieren, doch der Überlebenskampf ist nicht der der KIs, sondern der der Programmierer.
Falls man es an einem echten Überlebenskampf erkennen möchte, muss man nur Kinder betrachten, die sich zu Jugendlichen und dann Erwachsenen entwickeln. Jeder Mensch entwickelt seine KI, das ist es nur ein anderer Begriff für Verstand.
Ein Problem mit KI entsteht, wenn sie mit biologischen Zellen ausgestattet wird und ihre Energie selbst erzeugen kann, unabhängig vom Füttern durch den Menschen.
Mein Kind ist nicht mehr mein Kind, wenn es gelernt hat, sich selbst zu erhalten.