Meinung: Deepfake-Betrügereien missbrauchen Liebe und Vertrauen wie nie zuvor

Image generated with DALL·E through ChatGPT

Meinung: Deepfake-Betrügereien missbrauchen Liebe und Vertrauen wie nie zuvor

Lesezeit: 7 Min.

KI-gesteuerte Betrügereien sind im Aufwind, wobei Cyberkriminelle Deepfake-Technologie nutzen, um überzeugende Videos und Bilder zu erstellen, die ihre Opfer manipulieren. Von einer Französin, die glaubte, sie helfe Brad Pitt, bis hin zu einem Opfer, das von einem qualitativ hochwertigen Deepfake überzeugt wurde, verschwimmen die Grenzen zwischen Realität und Täuschung. Mit der Weiterentwicklung von KI-Tools nehmen auch die Risiken zu.

Viele von uns sahen es im Januar in den Nachrichten: Eine Französin verlor über 850.000 Dollar an Betrüger, weil sie glaubte, das Geld an Brad Pitt zu geben – den Mann, von dem sie dachte, dass sie seit über einem Jahr in einer Beziehung mit ihm war.

Die Betrüger nutzten fortschrittliche generative künstliche Intelligenz, um „Selfies“ zu erstellen und Beweise zu fälschen, und überzeugten ihr Opfer, Anne – eine 53-jährige Designerin in Scheidung – von der tragischen Geschichte eines gefälschten Pitt mit dringendem medizinischem Bedarf. Sie behaupteten, seine Mittel seien aufgrund seiner Scheidung von Angelina Jolie eingefroren.

Anne traf die mutige – und riskante – Entscheidung, ihre Geschichte öffentlich zu teilen, und sah sich Millionen von Spötteleien, Beleidigungen und virtuellen Angriffen ausgesetzt. „Wie eine Närrin habe ich bezahlt… Jedes Mal, wenn ich an ihm zweifelte, schaffte er es, meine Zweifel zu zerstreuen“, sagte sie in einer französischen YouTube-Show, wie die BBC berichtete. „Ich wurde einfach nur ausgenutzt, das gebe ich zu, und deshalb bin ich an die Öffentlichkeit gegangen, weil ich nicht die Einzige bin.“

Sie ist es nicht. Ein paar Monate später nahm die spanische Polizei 5 Personen fest, die zwei weitere Frauen betrügten, indem sie sich ebenfalls als Pitt ausgaben. Vor ein paar Tagen wurde auch ein chinesischer Mann getäuscht, der glaubte, seine Online-Freundin benötige Geld für medizinische Eingriffe und zur Finanzierung ihres Geschäfts.

Die Opfer erhielten personalisierte Videos und Fotos – Bilder, die nirgendwo anders online verfügbar waren – was sie noch mehr von den ausgeklügelten Lügen ihrer Betrüger überzeugte.

Ein kürzlicher Bericht von Entrust legt nahe, dass Deepfake-Versuche alle 5 Minuten stattfinden. Täglich kommen neue Fälle von Menschen hinzu, die mit generativer KI betrogen wurden – ein beunruhigender Trend, insbesondere angesichts der Tausenden oder sogar Millionen von Menschen, die in Schulden und Scham versunken sind und es nicht wagen, es den Behörden zu melden, geschweige denn öffentlich zu machen.

Steigende Zahl von DeepFake-Betrügereien

Mehrere Studien und Berichte haben Alarm geschlagen über die zunehmenden Betrügereien und Cyberattacken, die von KI angetrieben werden. Jüngste Daten aus TrustPair’s 2025 Fraud Trends and Insights zeigten eine Steigerung von KI-getriebenen Betrügereien um 118% im Jahresvergleich, wie von CFO berichtet wurde.

Hallo, Hiya, ein amerikanisches Unternehmen, das sich auf Sprachsicherheit und Performance-Lösungen spezialisiert hat, teilte kürzlich die Ergebnisse einer Umfrage mit, die aufdeckt, dass 31% der Kunden in sechs Ländern im Jahr 2024 Deepfake-Anrufe erhielten und 45% von ihnen betrogen wurden – 34% dieser Gruppe verloren Geld und 32% wurden persönliche Informationen gestohlen. Im Durchschnitt verlieren Opfer über 500 Dollar pro Telefonbetrug.

Vor ein paar Tagen enthüllte The Guardian, dass ein organisiertes Netzwerk in Georgien – in Osteuropa – gefälschte Anzeigen auf Facebook und Google verwendete, um über 6.000 Menschen in ganz Europa, Kanada und dem Vereinigten Königreich zu betrügen und durch ihre Operationen 35 Millionen Dollar zu machen.

Etwa 85 gut bezahlte georgische Betrüger nutzten öffentliche Persönlichkeiten wie den englischen Journalisten Martin Lewis, den Schriftsteller und Abenteurer Ben Fogle und Elon Musk für ihre Betrügereien. Die Betrüger bewarben gefälschte Kryptowährungen und andere Anlageprogramme, wodurch Opfer dazu gebracht wurden, Geld über digitale Banken wie Revolut zu überweisen – welche kürzlich eine Banklizenz in Großbritannien erhielt.

Fortgeschrittene KI, raffiniertere Betrügereien

Cyberkriminelle nutzen schon seit einigen Jahren generative KI, indem sie Tools wie ChatGPT einsetzen, um ansprechende E-Mails zu erstellen und zu übersetzen sowie überzeugende textbasierte Inhalte zu generieren. Jetzt, mit der Weiterentwicklung der KI-Tools, hat die Verwendung von KI-generierten Bildern und Videos zugenommen.

Vor einigen Wochen hat ByteDance sein neuestes AI-Video-Tool, OmniHuman-1, vorgestellt, das in der Lage ist, eines der realistischsten Deepfakes auf dem Markt zu erzeugen. In der Zwischenzeit entwickeln immer mehr KI-Unternehmen ähnliche Technologien. Es scheint nur eine Frage der Zeit zu sein, bis diese Tools auch für Betrügereien eingesetzt werden.

Während diese Technologien „in gutem Glauben“ verwendet werden können und sogar dazu beitragen können, den Anstieg von Betrügereien zu bekämpfen – wie beispielsweise O2’s KI ‚Oma‘ Daisy, die dazu entworfen wurde, Betrüger in Echtzeit-Anrufen zu beschäftigen und sie von echten Opfern abzulenken – scheinen die Folgen ihrer böswilligen Nutzung unermesslich zu sein.

Bei Wizcase haben wir kürzlich über einen Anstieg der „Scam-Yourself-Attacken“ um 614% berichtet und dabei hervorgehoben, wie Hacker Deepfake-Technologien nutzen, um gefälschten Inhalt „realistischer“ aussehen zu lassen und wie soziale Medien Unternehmen wie Meta in Schweineschlachtungs-Betrügereien eingreifen mussten, da viele Bedrohungsakteure diese Plattformen nutzen. In der Untersuchung stellte Meta fest, dass viele Betrügereien in Dating-Apps begannen, was beweist, wie romantische Liebe zu den häufigsten Ködern zählt – jetzt und historisch gesehen.

Liebe: Ein mächtiger Köder

Cyberkriminelle sind nicht nur geübt im Verständnis und der Anwendung fortschrittlicher künstlicher Intelligenz – sie haben auch ein tiefes Verständnis für menschliche Intelligenz. Bedrohungsakteure wissen, wie man Schwachstellen erkennt, Vertrauen aufbaut und ihre Anfragen zum genau richtigen Zeitpunkt stellt.

Die Studie Liebst du mich? Psychologische Merkmale von Opfern romantischer Betrügereien, die 2018 von der Doktorin Monica T. Whitty veröffentlicht wurde, erklärt, wie internationale Verbrechergruppen seit vielen Jahren romantische Betrügereien durchführen – schon vor dem Internet – und wie gut ausgebildete Frauen mittleren Alters wahrscheinlich auf diesen Typ von Betrug hereinfallen – genauso wie Anne.

Was können wir nun erwarten, acht Jahre nach dieser Studie, mit einer fast Science-Fiction-artigen Technologie? Wahrscheinlich sind wir alle anfälliger, als wir denken.

„Opfer dieser Art von Betrug sind oft Menschen auf der Suche nach Sinn, die emotional verletzlich sind“, schrieb Annie Lecompte, außerordentliche Professorin an der Universität von Quebec in Montreal (UQAM), in einem kürzlich veröffentlichten Artikel in The Conversation. „Obwohl es verspottet und missverstanden wird, basiert Romantikbetrug auf komplexen psychologischen Mechanismen, die das Vertrauen, die Emotionen und die Verletzlichkeit der Opfer ausnutzen.“

Ein gebrochenes Herz, eine leere Brieftasche

Liu – der Familienname des chinesischen Mannes, der kürzlich 200.000 Yuan, etwa 28.000 Dollar, in einem von KI gesteuerten Betrug verloren hat – glaubte wirklich, dass seine KI-Freundin echt war, da er personalisierte Fotos und sogar Videos sah. Er baute eine immer stärkere emotionale Bindung auf… zu seinen Betrügern.

Obwohl er keine weiteren Details zum Kontext in den Berichten lieferte, tat dies ein weiteres Opfer, die 77-jährige Frau Nikki MacLeod. Sie glaubte ebenfalls, sie sei in einer echten Beziehung mit einer KI-Freundin und schickte ihr £17,000 – etwa $22,000 – durch Banküberweisungen, PayPal und Geschenkkarten.

„Ich bin keine dumme Person, aber sie konnte mich davon überzeugen, dass sie eine echte Person ist und wir unser Leben zusammen verbringen würden“, sagte MacLeod zur BBC.

MacLeod fühlte sich einsam und traurig, als sie Alla Morgan in einem Gruppenchat kennenlernte. Nach einer Weile bat MacLeod um ein Live-Video, aber Morgan sagte, das sei nicht möglich, da sie auf einer Ölplattform arbeite. Als MacLeod anfing zu misstrauen, begann Morgan realistische Videos zu senden. „Sie schickte mir ein Video, um zu sagen ‚Hallo Nikki, ich bin kein Betrüger, ich bin auf meiner Ölplattform‘, und ich war völlig davon überzeugt“, erklärte MacLeod. Der Inhalt ist auf der Website der BBC verfügbar, und es ist leicht zu verstehen, warum MacLeod glaubte, es sei echt – es handelt sich um ein hochwertiges Deepfake.

Die BBC bat eine Expertin für Cybersicherheit und Mensch-Computer-Interaktion an der Abertay University, Dr. Lynsay Shepherd, die Fotos und Videos zu analysieren, die MacLeod erhalten hatte. „Auf den ersten Blick sieht es legitim aus, wenn man nicht weiß, wonach man suchen muss, aber wenn man sich die Augen ansieht – die Augenbewegungen sind nicht ganz richtig“, sagte Dr. Shepherd.

„Die Dokumente sahen echt aus, die Videos sahen echt aus, die Bank sah echt aus“, sagte MacLeod. „Mit der Einführung von künstlicher Intelligenz kann jede einzelne Sache gefälscht sein.“

Hat dir der Artikel gefallen?
Wir freuen uns über eine Bewertung!
Ich mag es gar nicht Nicht so mein Fall War ok Ziemlich gut Ich liebe es

Wir freuen uns, dass dir unsere Arbeit gefallen hat!

Würdest du uns als geschätzte Leserin oder geschätzter Leser eine Bewertung auf Trustpilot schreiben? Das geht schnell und bedeutet uns sehr viel. Danke, dass du am Start bist!

Bewerte uns auf Trustpilot
0 Bewertet von 0 Nutzern
Titel
Kommentar
Danke für dein Feedback
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Hinterlasse einen Kommentar

Loader
Loader Mehr anzeigen...