Meinung: Die KI-Halluzinations-Epidemie, eine Krise, auf die wir nicht vorbereitet sind

Image generated with DALL·E through ChatGPT

Meinung: Die KI-Halluzinations-Epidemie, eine Krise, auf die wir nicht vorbereitet sind

Lesezeit: 8 Min.

Trotz fortlaufender Versprechen, AI-Halluzinationen zu reduzieren, erzeugen bedeutende KI-Werkzeuge – von ChatGPT über Perplexity bis hin zu Gemini und Apple Intelligence – weiterhin falsche Informationen, oft mit alarmierenden Konsequenzen. Experten, einschließlich derer, die vor KI-Risiken warnen, sind auf erfundene Inhalte hereingefallen, und selbst fortschrittliche Werkzeuge wie Deep Research erstellen verfälschte Berichte. Die Wahrheit scheint weiterhin in menschlichen Händen zu liegen

Chatbots sind im Laufe der Jahre immer besser geworden – deutlich besser. Es gibt jedoch ein Problem, das noch nicht ganz gelöst ist und als „Halluzinationen“ bekannt ist.

Unsere geliebten Chatbots geben brillante Antworten auf unsere Fragen mit der Entschlossenheit und Autorität eines Science-Fiction-Yodas, selbst wenn sie völlig falsch liegen. Und wir glauben ihnen. Manchmal blindlings.

Seit Jahren warnen zahlreiche Wissenschaftler, Experten und sogar Chatbot-Entwickler vor Halluzinationen. Trotzdem hat sich die Akzeptanz rasant verbreitet – OpenAI meldete erst vor wenigen Tagen 400 Millionen wöchentlich aktive Nutzer – während das Verständnis für KI nicht Schritt gehalten hat.

Aktuelle Studien, Gerichtsverfahren und dramatische Ereignisse zeigen weiterhin, dass Fehlinformationen gefährlicher sind, als wir erkennen.

Es ist schlimmer als wir denken

Anfangs war es ziemlich amüsant, große von KI generierte Fehler zu entdecken – wie diese peinlichen KI-Übersichten, die von Gemini generiert wurden und Benutzern vorschlugen, „ungiftigen Kleber zur Soße“ für ein Pizza-Rezept hinzuzufügen oder das Essen von „einem kleinen Stein pro Tag“ im letzten Jahr zu empfehlen. Aber als wir wieder Vertrauen in die KI gewinnen, hat sich die Situation verschärft und wird zunehmend besorgniserregend.

Im Dezember sahen wir, wie Apples KI-Tool Schlagzeilen „zusammenfasste“ und falsche und irreführende Informationen generierte, wie zum Beispiel die falsche Behauptung, die BBC habe verkündet, Luigi Mangione hätte sich selbst erschossen. Nach diesem Vorfall reichte die Publikation eine Beschwerde gegen Apple ein und begann, die Genauigkeit generativer KI bei der Analyse von Nachrichteninhalten zu erforschen.

Die Ergebnisse der BBC, die vor nur wenigen Tagen veröffentlicht wurden, enthüllten beunruhigende Statistiken: 51% der Antworten, die von beliebten KI-Chatbots geliefert wurden, enthielten erhebliche Probleme, 13% der von den Modellen gelieferten Zitate waren komplett erfunden und 19% der Daten waren falsch.

Teenager gehören zu den am stärksten betroffenen Bevölkerungsgruppen, da sie oft Schwierigkeiten haben, Falschnachrichten von echten Nachrichten zu unterscheiden, und leicht von KI-generierten Inhalten beeinflusst werden können. Eine Studie, die im Januar veröffentlicht wurde, zeigte, dass 35% der Teenager von falschen Inhalten, die von KI-Modellen generiert wurden, in die Irre geführt wurden und 22% die falschen Informationen weitergegeben haben.

Aber es sind nicht nur Teenager und abgelenkte Menschen, die auf diese Halluzinationen hereinfallen. Und es sind nicht nur Gemini oder Apple Intelligence.

Kein KI-Modell bleibt verschont, keine Branche ist sicher

Die von der BBC durchgeführte Forschung bestätigt ein weiteres Problem: Alle KI-Modelle halluzinieren. Experten untersuchten die beliebtesten Modelle, darunter ChatGPT, Gemini, Perplexity und Copilot. Kein KI-Modell ist vor Fehlern gefeit. Anthropic hat eine Seite, die sich mit diesem Problem befasst und Vorschläge zur Reduzierung von Halluzinationen macht.

„Selbst die fortschrittlichsten Sprachmodelle, wie Claude, können manchmal Text generieren, der sachlich inkorrekt oder nicht konsistent mit dem gegebenen Kontext ist“, heißt es in dem Dokument. Andere KI-Unternehmen haben ähnliche Seiten mit Tipps und Tricks geteilt, um gefälschte Inhalte zu vermeiden, aber das ist nicht so einfach und es ist ein seit langem ungelöstes Problem.

Bereits 2023 kündigte OpenAI an, an neuen innovativen Methoden zur Beseitigung von Halluzinationen zu arbeiten. Spoiler-Alarm: Es ist immer noch ein großes Problem heute.

Im Januar 2024 – also vor über einem Jahr – sagte CEO Aravind Srinivas, dass die Halluzinationen von Perplexity hauptsächlich in unbezahlten Konten auftreten würden. „Die meisten Beschwerden stammen von der kostenlosen Version des Produkts“, erklärte Srinivas und fügte hinzu, dass sie bereits dabei seien, mehr GPUs bereitzustellen, um das Problem zu beheben. Doch bis Oktober hatten die New York Post und Dow Jones eine Klage gegen Perplexity eingereicht – da ihr Modell weiterhin Fake News ihren Veröffentlichungen zuschrieb -, und das von der Startup entwickelte KI-Tool für die US-Wahlen wurde von Experten getestet, die Inkonsistenzen, ungenaue Zusammenfassungen und Halluzinationen aufdeckten.

Die Halluzinationskrankheit erreicht wissenschaftliche und akademische Ausmaße

Eine der größten Sorgen derzeit ist, dass sogar Experten – einschließlich derer, die vor den Risiken und Gefahren der KI warnen – diesen zur Halluzination neigenden Tools erlegen sind.

Im Dezember wurde dem Stanford-Professor und Experten für Technologie und Fehlinformationen Jeff Hancock vorgeworfen, KI zur Erstellung einer Gerichtserklärung verwendet zu haben. Hancock reichte eine 12-seitige Erklärung ein, in der er das Gesetz des Staates von 2023 verteidigte, das die Verwendung von Deepfakes unter Strafe stellt, einschließlich 15 Zitaten. Zwei dieser Zitate konnten jedoch nirgendwo gefunden werden – weil ChatGPT, das bevorzugte KI-Tool des Fehlinformationsexperten, sie einfach erfunden hatte.

Hancock – der dieses Jahr den Kurs „Wahrheit, Vertrauen und Technik“ halten soll – erklärte, dass er den Chatbot von OpenAI verwendet hat, um seine Zitationen zu organisieren, was zu den Halluzinationen führte. Die Forscherin entschuldigte sich und hielt an den wesentlichen Punkten ihrer Erklärung fest – und lehrte uns allen die wertvolle Lektion, dass sogar Experten und diejenigen, die am meisten über die Risiken von KI wissen, davon betroffen sind.

Professor Hancock ist natürlich nicht der einzige, der Dokumente mit von KI erzeugten Fälschungen vor Gericht eingereicht hat. Ein weiterer Fall, der eine Klage gegen Walmart beinhaltete, ging kürzlich viral, weil die Anwälte gefälschte Fälle, die von KI generiert wurden, nutzten, um ihre Argumentation aufzubauen. Tatsächlich ist das Problem in den US-Gerichten so häufig geworden, dass die Anwaltskanzlei Morgan & Morgan kürzlich E-Mails an ihre mehr als 1.000 Anwälte verschickte, in denen sie vor den Risiken der Verwendung von von KI generierten Zitationen warnte, und die American Bar Association erinnerte ihre 400.000 Mitglieder an die Regeln der Anwaltsethik – einschließlich von KI erzeugter Informationen.

Tiefe Forschung auch

Eines der derzeit beliebtesten KI-Tools ist „Deep Research“, das für Experten und Wissenschaftler konzipiert wurde, die komplexere Ergebnisse in ihrer Forschung suchen. Auch Halluzinationen bleiben bei diesem Tool nicht aus, obwohl die Version von OpenAI zunächst eine $200 Pro-Abonnement für den Zugang erforderte.

Nutzer auf Reddit haben Bedenken gegen dieses Problem geäußert und berichten, dass alle beliebten Modelle mit Deep-Research-Tools – Perplexity, ChatGPT und DeepSeek – Halluzinationen erzeugt haben. Forscher und KI-Experten haben auch beunruhigende Ergebnisse auf anderen sozialen Medien-Plattformen wie X geteilt.

„Das Tool hat einen wunderschön geschriebenen und argumentierten Bericht erstellt“, schrieb eine Nutzerin, die OpenAI’s Deep Research Tool benutzt hat, um Mathematikstudien von jungen Menschen zu untersuchen. „Das einzige Problem ist, dass alles erfunden ist.“

„Deep Research hat eine Reihe von Statistiken und Analysen erfunden und behauptet, eine Datensammlung von Tausenden von Artikeln zu erstellen und angeblich Geburtsjahresinformationen für jeden Autor aus seriösen Quellen zu sammeln“, teilte eine andere. „Nichts davon ist wahr.“

Die Wahrheit Bleibt In Menschlichen Händen

Werden Chatbots jemals aufhören zu halluzinieren? Die Schwachstelle der KI ist seit Jahren offensichtlich – wir haben sie in Podcasts wie Planet Money gesehen, als sie KI-generierte Episoden im Jahr 2023 testeten, und wir sehen sie weiterhin in den fortschrittlichsten Modellen, sogar in solchen, die exklusiv für den Gebrauch von Experten und technisch versierten Gemeinschaften konzipiert sind.

Vielleicht ist es an der Zeit zu akzeptieren, dass dies ein anhaltendes Problem bleiben wird und zu verstehen, dass wir die Verantwortung für das übernehmen müssen, was wir mit Hilfe von KI-Werkzeugen erstellen und teilen.

Die Tatsache, dass selbst KI-Risikoexperten, obwohl es ein bekanntes Problem zu sein scheint, auf die überzeugende und überredende Schreibweise der KI hereinfallen, ist definitiv besorgniserregend. Die Situation wird noch komplexer, da die Einführung weiterhin mit voller Geschwindigkeit voranschreitet und die digitale Bildung überholt, während Inkonsistenzen und gefälschte Zitate sich vermehren.

Fälle, in denen KI-Halluzinationen aufgedeckt wurden, sind oft solche, in denen Faktenüberprüfungen entscheidend sind – etwas, woran Zuckerberg erinnert werden sollte, jetzt, wo er seine Faktencheck-Abteilung abgeschafft hat. Dies zeigt sich besonders in Gerichtssälen, wo Anwälte und Richter daran arbeiten, Fakten und Fälle zu überprüfen, und in den Nachrichtenmedien, wo Genauigkeit und Quellenvalidierung von Bedeutung sind.

Aber was ist mit Fällen, in denen niemand diese Details überprüft? Was passiert in alltäglicheren, persönlicheren Kontexten? Im Moment lernen Millionen von Schülern KI-generierte Antworten für ihr Studium auswendig, Nutzer folgen KI-gestützten Anweisungen zur Behandlung von Leiden und andere lernen über neue Themen, wobei sie der Technologie vollkommen vertrauen.

Die Folgen dieser neuen Realität, mit der wir konfrontiert sind, sind unermesslich und unvorhersehbar, und die Wahrheit – zumindest vorerst – liegt in den Händen derjenigen, die sich die Zeit nehmen, zu hinterfragen und zu überprüfen.

Hat dir der Artikel gefallen?
Wir freuen uns über eine Bewertung!
Ich mag es gar nicht Nicht so mein Fall War ok Ziemlich gut Ich liebe es

Wir freuen uns, dass dir unsere Arbeit gefallen hat!

Würdest du uns als geschätzte Leserin oder geschätzter Leser eine Bewertung auf Trustpilot schreiben? Das geht schnell und bedeutet uns sehr viel. Danke, dass du am Start bist!

Bewerte uns auf Trustpilot
0 Bewertet von 0 Nutzern
Titel
Kommentar
Danke für dein Feedback
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Hinterlasse einen Kommentar

Loader
Loader Mehr anzeigen...