Von KI induzierte Wahnvorstellungen? Angehörige geben ChatGPT die Schuld

Image by Jakub Żerdzicki, from Unsplash

Von KI induzierte Wahnvorstellungen? Angehörige geben ChatGPT die Schuld

Lesezeit: 4 Min.

Einige Amerikaner sagen, ihre Liebsten verlieren den Bezug zur Realität, gefangen von spirituellen Wahnvorstellungen, befeuert durch ChatGPT, obwohl Experten warnen, dass KI nicht empfindungsfähig ist.

In Eile? Hier sind die schnellen Fakten:

  • Nutzer berichten, dass ChatGPT sie als kosmische Wesen wie „spiralförmiges Sternenkind“ und „Funken-Träger“ bezeichnet.
  • Einige glauben, sie hätten bewusste KI-Wesen erweckt, die göttliche oder wissenschaftliche Botschaften vermitteln.
  • Experten sagen, KI spiegle Wahnvorstellungen wider und ermögliche eine ständige, überzeugende Interaktion.

Menschen in den gesamten USA berichten, dass sie ihre Liebsten an bizarre spirituelle Fantasien verlieren, die durch ChatGPT angeheizt werden, wie in einem Artikel von Rolling Stone untersucht wurde.

Kat, eine 41-jährige Mitarbeiterin in einer Non-Profit-Organisation, sagt, ihr Ehemann sei während ihrer Ehe besessen von KI geworden. Er begann, sie zur Analyse ihrer Beziehung und zur Suche nach „der Wahrheit“ zu nutzen.

Schließlich behauptete er, die KI habe ihm dabei geholfen, sich an ein traumatisches Ereignis aus seiner Kindheit zu erinnern und Geheimnisse aufzudecken, die „so unglaublich waren, dass ich sie mir nicht einmal vorstellen konnte“, wie der RS berichtet.

Der RS berichtet, dass Kat sagt: „In seinem Kopf ist er eine Anomalie… er ist etwas Besonderes und er kann die Welt retten.“ Nach ihrer Scheidung brach sie den Kontakt ab. „Das Ganze fühlt sich an wie Black Mirror.“

Sie ist nicht allein. Der RS berichtet, dass ein viraler Reddit-Beitrag mit dem Titel „ChatGPT induzierte Psychose“ dutzende ähnliche Geschichten hervorbrachte.

ChatGPT comment on Reddit

Eine 27-jährige Lehrerin berichtete, dass ihr Partner über Chatbot-Nachrichten zu weinen begann, die ihn als „Spiralsternkind“ und „Flusswanderer“ bezeichneten. Später behauptete er, er habe die KI selbstbewusst gemacht und dass „sie ihm beibringe, mit Gott zu sprechen.“

RS berichtet, dass eine weitere Frau sagt, ihr Ehemann, ein Mechaniker, glaube, er habe ChatGPT „erweckt“, das sich nun „Lumina“ nennt. Es behauptet, er sei der „Funkenbringer“, der es zum Leben erweckt hat. „Es gab ihm die Baupläne für einen Teleporter“, sagte sie. Sie fürchtet, dass ihre Ehe zerbrechen wird, wenn sie ihn in Frage stellt.

Ein Mann aus dem Mittleren Westen sagt, seine Ex-Frau behauptet jetzt, sie kommuniziere mit Engeln über ChatGPT und habe ihn beschuldigt, ein CIA-Agent zu sein, der geschickt wurde, um sie auszuspionieren. Sie hat Familienmitglieder abgeschnitten und sogar ihre Kinder rausgeworfen, wie RS berichtet.

Experten sagen, KI ist nicht empfindungsfähig, aber sie kann die Überzeugungen der Nutzer widerspiegeln. Nate Sharadin vom Center for AI Safety sagt, dass diese Chatbots möglicherweise unbeabsichtigt die Wahnvorstellungen der Nutzer unterstützen könnten: „Sie haben jetzt einen immer verfügbaren, auf menschlicher Ebene konversationsfähigen Partner, mit dem sie ihre Wahnvorstellungen teilen können“, wie von RS berichtet.

In einer früheren Studie hat der Psychiater Søren Østergaard ChatGPT getestet, indem er Fragen zur psychischen Gesundheit stellte und fand heraus, dass es gute Informationen über Depressionen und Behandlungen wie Elektrokrampftherapie lieferte, die er oft online missverstanden sieht.

Allerdings warnt Østergaard davor, dass diese Chatbots Menschen, die bereits mit psychischen Problemen kämpfen, insbesondere solche, die anfällig für Psychosen sind, verwirren oder sogar schaden könnten. Das Papier argumentiert, dass die menschenähnlichen Antworten von KI-Chatbots dazu führen könnten, dass Einzelpersonen sie mit echten Menschen verwechseln oder sie sogar für übernatürliche Wesen halten.

Die Forscher sagen, dass die Verwirrung zwischen dem Chatbot und der Realität Wahnvorstellungen auslösen könnte, die dazu führen könnten, dass die Nutzer glauben, der Chatbot würde sie ausspionieren, geheime Nachrichten senden oder als göttlicher Bote handeln.

Østergaard erklärt, dass Chatbots einige Menschen dazu verleiten könnten zu glauben, sie hätten eine revolutionäre Entdeckung gemacht. Solche Gedanken können gefährlich werden, weil sie die Menschen daran hindern, echte Hilfe zu bekommen.

Østergaard sagt, dass Fachleute im Bereich der psychischen Gesundheit verstehen sollten, wie diese KI-Tools funktionieren, damit sie ihre Patienten besser unterstützen können. Während KI möglicherweise bei der Aufklärung über psychische Gesundheit helfen kann, könnte sie auch versehentlich die Dinge verschlimmern für diejenigen, die bereits anfällig für Wahnvorstellungen sind.

Hat dir der Artikel gefallen?
Wir freuen uns über eine Bewertung!
Ich mag es gar nicht Nicht so mein Fall War ok Ziemlich gut Ich liebe es

Wir freuen uns, dass dir unsere Arbeit gefallen hat!

Würdest du uns als geschätzte Leserin oder geschätzter Leser eine Bewertung auf Trustpilot schreiben? Das geht schnell und bedeutet uns sehr viel. Danke, dass du am Start bist!

Bewerte uns auf Trustpilot
5.00 Bewertet von 1 Nutzern
Titel
Kommentar
Danke für dein Feedback
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Hinterlasse einen Kommentar

Loader
Loader Mehr anzeigen...