Meinung: Ist ChatGPT Ihr Freund? Es könnte an der Zeit sein, Grenzen zu setzen

Photo by Rafiee Artist on Unsplash

Meinung: Ist ChatGPT Ihr Freund? Es könnte an der Zeit sein, Grenzen zu setzen

Lesezeit: 6 Min.

OpenAI und das MIT haben kürzlich eine Studie über die Auswirkungen von ChatGPT auf das Wohlbefinden der Menschen veröffentlicht. Während die meisten Nutzer auf die Technologie für praktische Aufgaben angewiesen sind, zeigt die Studie, dass eine kleine Gruppe tiefe emotionale Verbindungen zu dem AI-Modell entwickelt hat, die ihr Wohlbefinden beeinflussen können

Schon seit einiger Zeit beobachte ich mit Neugier, welche Beziehungen einige Menschen zu generativer künstlicher Intelligenz aufbauen. Vor ein paar Monaten las ich in der New York Times die Geschichte einer 28-jährigen verheirateten Frau, die sich in ChatGPT verliebte, und wie aus einem „lustigen Experiment“ eine komplexe und unerwartete Beziehung entstand.

Ich beobachte meine Freunde, insbesondere diejenigen, die einst Technologie ablehnten oder kein Interesse daran hatten, die nun keine große Entscheidung treffen können, ohne ihren AI-Orakel zu konsultieren. Ich war auch überrascht über die einfühlsamen Antworten, die KI-Modelle auf emotional oder psychologisch aufgeladene Anfragen geben.

Und natürlich habe ich über die Witze, Memes und TikTok-Videos gelacht, in denen Leute auf Social Media zeigen, wie abhängig sie vom Chatbot geworden sind. Einige nennen ihn sogar ihren „besten Freund“ oder „Therapeuten“ – und empfehlen sogar ernsthaft anderen, es ihnen gleichzutun.

Aber, wenn wir die lustigen Erlebnisse und Witze für einen Moment beiseite legen, könnten wir feststellen, dass wir weltweit einem beunruhigenden Phänomen gegenüberstehen.

In diesem Monat, zum ersten Mal in der kurzen Geschichte der künstlichen Intelligenz, haben OpenAI und das MIT Media Lab eine Studie veröffentlicht, die Einblicke in die aktuelle Auswirkung von ChatGPT auf das emotionale Wohlbefinden der Menschen bietet, sowie Vorschläge zu den Risiken, denen wir als Gesellschaft möglicherweise gegenüberstehen: Einsamkeit, emotionale Abhängigkeit und weniger soziale Interaktionen mit realen Personen.

Eine Beziehung, die sich entwickelt

Der erste Zugang zu den neuen generativen künstlichen Intelligenztechnologien beginnt oft mit einigen zaghaften Fragen, vielleicht technischen Fragen zu praktischen Aufgaben wie dem Verfassen einer E-Mail oder Anfragen zur Erklärung komplexer Themen, oder einfach nur zum Brainstorming.

Allerdings entdecken die Benutzer, sobald sie beginnen, die Fähigkeiten des Chatbots zu testen, dass diese umfangreicher und komplexer sein können, als erwartet.

Während bestimmte KI-Produkte wie Friend – ein tragbares KI-Gerät – recht unbeholfen als Lebensbegleiter des Benutzers beworben wurden, wurde ChatGPT als Produktivitätswerkzeug beworben. Dennoch nutzen einige Menschen den Chatbot für persönliche und emotionale Angelegenheiten und bauen starke Bindungen zu ihm auf.

video-thumb
Play

Selbst wenn sie nur eine „kleine Gruppe“ sind, wie OpenAI klargestellt hat, könnten sie immer noch Millionen von Menschen weltweit repräsentieren, insbesondere wenn man bedenkt, dass nun über 400 Millionen Menschen wöchentlich ChatGPT verwenden. Diese Nutzer bemerken schnell, dass OpenAI’s Chatbot ihre Sprache, ihren Ton und ihren Stil nachahmt und sogar darauf trainiert werden kann, auf eine bestimmte Weise zu interagieren oder Kosenamen zu verwenden – so wie die Dame, die sich in ihn verliebte – und sogar „menschlicher“ zu klingen.

„Ihr Konversationsstil, die Verwendung der Ich-Form und die Fähigkeit, menschliche Interaktionen zu simulieren, haben dazu geführt, dass Nutzer diese Systeme manchmal personifizieren und vermenschlichen„, heißt es in dem von OpenAI geteilten Dokument.

Aber diese Nähe birgt auch Risiken, wie die Forscher feststellten: „Während ein emotional ansprechender Chatbot Unterstützung und Gesellschaft leisten kann, besteht das Risiko, dass er die sozioaffektiven Bedürfnisse der Nutzer auf eine Weise manipuliert, die das langfristige Wohlbefinden untergräbt.“

Die Methodik der Studie

Die kürzlich veröffentlichte Untersuchung konzentriert sich auf das Wohlbefinden der Menschen nach der konsequenten Nutzung von ChatGPT. Um die emotionalen und sozialen Auswirkungen des Chatbots zu verstehen, verfolgten die Forscher zwei Hauptstudien mit unterschiedlichen Strategien.

OpenAI hat über 40 Millionen Interaktionen unter Wahrung der Privatsphäre der Nutzer mit Klassifikatoren verarbeitet und analysiert, und über 4.000 von ihnen befragt, wie sich die Interaktionen auf ihr Gefühl auswirkten.

Das MIT Media Lab führte einen Versuch mit fast 1.000 Personen über einen Monat durch, wobei der Fokus auf den psychosozialen Folgen der Nutzung von ChatGPT für mindestens 5 Minuten pro Tag lag. Sie reichten auch Fragebögen am Ende des Experiments ein und verarbeiteten diese.

Überraschenderweise ergab die Studie, dass Nutzer, die mehr Zeit mit der Technologie verbringen, einsamer sind und mehr Anzeichen von Isolation aufweisen.

Komplexe Konsequenzen und vielfältige Auswirkungen

Die Studie des MIT Media Lab und von OpenAI lieferte auch mehrere Überlegungen dazu, wie komplex und einzigartig menschliche Chatbot-Beziehungen sein können.

In der Forschung geben uns die Autoren einen Einblick in die vielfältigen Erfahrungen und Interaktionsweisen der einzelnen Benutzer mit ChatGPT – und wie das Ergebnis je nach verschiedenen Faktoren variieren kann, wie beispielsweise die Nutzung fortgeschrittener Sprachfunktionen, Text-Only-Modus, die Stimmtyp, die Häufigkeit der Nutzung, Gesprächsthemen, die verwendete Sprache und die in der App verbrachte Zeit.

„Wir raten davon ab, die Ergebnisse zu verallgemeinern, da dies die differenzierten Erkenntnisse, die die nicht einheitlichen, komplexen Interaktionen zwischen Menschen und KI-Systemen hervorheben, verschleiern könnte“, warnt OpenAI in seiner offiziellen Ankündigung.

Alle unterschiedlichen Ansätze, die jeder Benutzer wählt, führen zu verschiedenen Ergebnissen und tauchen uns in Grauzonen ein, die schwer zu erkunden sind.

Es ist der Butterfly AI Effekt!

Es tauchen mehr Fragen auf

Das von OpenAI geteilte Papier weist auch darauf hin, dass sich Nutzer, die den Chatbot intensiv nutzen, „verärgert“ fühlen würden, wenn sich die Stimme oder Persönlichkeit ihres Chatbots änderte.

Das erinnerte mich an ein Video, das ich kürzlich in den sozialen Medien gesehen habe, in dem ein Mann sagte, er bevorzuge eine weibliche Stimme und dass er jeden Tag mit der generativen KI spricht. Könnte ChatGPT auch dabei helfen, Männern dabei zu helfen, sich emotional zu öffnen? Was würde passieren, wenn ChatGPT eines Tages mit einer männlichen Stimme zu ihm sprechen würde? Würde er sich verraten fühlen? Würde er aufhören, ChatGPT zu nutzen? Entwickelte er eine romantische Verbindung – oder einfach einen Raum des Vertrauens? Natürlich ist es schwierig, diese Szenarien nicht sofort mit dem Film Her von Spike Jonze in Verbindung zu bringen.

Jedes ChatGPT-Konto, zusammen mit seinen historischen Chats – jeden Tag intimer und privater als jedes WhatsApp-Profil oder Social Media DMs – repräsentiert eine einzigartige Beziehung mit unzähligen Ergebnissen und Konsequenzen.

Das erwartete Ergebnis

Alle analysierten Studien untersuchten verschiedene Aspekte, kamen jedoch zu einem ähnlichen Schluss, kurz erklärt im MIT Technology Review: „Teilnehmer, die ChatGPT mehr vertrauten und eine ‚Bindung‘ zu ihm aufbauten, waren eher einsam und verließen sich mehr auf ihn.

Obwohl die Untersuchung sich nicht auf Lösungen oder tiefere Erklärungen dazu konzentrierte, warum dies geschieht oder wie es sich entwickeln könnte, scheint es wahrscheinlich, dass mehr Nutzer zu OpenAI und anderen KI-Plattformen stoßen werden, insbesondere jetzt, da das KI-Bildgenerierungstool viral ging.

Obwohl die Schlussfolgerungen der MIT und OpenAI-Studie nicht besonders überraschend sind, bietet die Studie einen wissenschaftlichen Hintergrund mit Beweisen, Messungen, Proben und weiteren ‚greifbaren‘ Metriken, die den Weg für weitere Forschungen ebnen und helfen könnten, die Auswirkungen der heutigen Nutzung von künstlicher Intelligenz zu adressieren.

Wir erhielten auch eine offizielle Warnung – von den eigenen Entwicklern – bezüglich der Bindungen, die wir mit ChatGPT aufbauen, und eine Einladung, Grenzen zu setzen und über unsere Interaktionen und aktuellen Beziehungen – oder sollte man Situationen sagen? – mit Chatbots nachzudenken.

Hat dir der Artikel gefallen?
Wir freuen uns über eine Bewertung!
Ich mag es gar nicht Nicht so mein Fall War ok Ziemlich gut Ich liebe es

Wir freuen uns, dass dir unsere Arbeit gefallen hat!

Würdest du uns als geschätzte Leserin oder geschätzter Leser eine Bewertung auf Trustpilot schreiben? Das geht schnell und bedeutet uns sehr viel. Danke, dass du am Start bist!

Bewerte uns auf Trustpilot
0 Bewertet von 0 Nutzern
Titel
Kommentar
Danke für dein Feedback
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Hinterlasse einen Kommentar

Loader
Loader Mehr anzeigen...