Die klare Grenze zwischen echten und von KI-erzeugten Videos könnte 2025 verschwinden

Photo by ActionVance on Unsplash

Die klare Grenze zwischen echten und von KI-erzeugten Videos könnte 2025 verschwinden

Lesezeit: 6 Min.

AI-generierte Inhalte sind gekommen, um zu bleiben. Sie werden immer besser und wir haben eine signifikante Verbesserung der AI-Technologien im Jahr 2024 gesehen. Werden wir 2025 noch unterscheiden können, was echt ist und was nicht?

Ich habe mich kürzlich dabei erwischt, wie ich fragte: „Ist das eine echte Frau?“ – während ich leicht zusammengekniffen habe – nachdem ich einen Beitrag auf Instagram gesehen hatte. „Nein, das muss von AI generiert worden sein“, schloss ich nach einem Moment. Dann fragte ich mich sofort: Werden wir nächstes Jahr noch innerhalb von Sekunden den Unterschied erkennen können? Alle Anzeichen deuten darauf hin, dass dies nicht der Fall sein wird, insbesondere in den sozialen Medien, wie die jüngsten bedeutenden Entwicklungen in der AI-Technologie nahelegen.

Vor einigen Tagen teilte der Chef von Instagram, Adam Mosseri, eine Nachricht zu diesem Thema auf Threads. „Generative KI erzeugt eindeutig Inhalte, die schwer von Aufzeichnungen der Realität zu unterscheiden sind und sich rasch verbessern“, schrieb er. Mosseri räumte öffentlich ein, dass sie bei Meta Schwierigkeiten haben, KI-erstellte Inhalte zu kennzeichnen und die enorme Menge an Medien zu überwachen und zu kontrollieren, die jede Sekunde auf ihren sozialen Medienplattformen geteilt wird.

Mosseri wusch Meta die Hände von der Verantwortung und warnte die Nutzer, dass es an ihnen liegt, zu unterscheiden, ob ein Beitrag echt ist oder nicht. „Es wird zunehmend wichtig sein, dass der Betrachter oder Leser einen kritischen Geist mitbringt, wenn er Inhalte konsumiert, die vorgeben, ein Bericht oder eine Aufzeichnung der Realität zu sein“, fügte er hinzu.

Nur wenige Tage später veröffentlichte OpenAI Sora Turbo, seinen leistungsstarken KI-Videogenerator, der es Pro- und Plus-Benutzern ermöglicht, realistische Videos aus Textvorgaben zu generieren. Innerhalb weniger Minuten begannen die Nutzer faszinierende realistische Videos zu erstellen und teilten diese auf sozialen Medien.

Gerade als es schien, als würde die Videoproduktion eine neue Stufe erreichen, kündigte Google sein neuestes KI-Videotool an, Veo 2, mit höherer Auflösung und längeren Clips als Sora. Natürlich waren die Ergebnisse, die von denjenigen geteilt wurden, die Zugang zu der fortschrittlichen Technologie hatten, noch beeindruckender.

„Niemand kann nun sagen, dass dies KI ist“, schrieb ein Nutzer.

Es passiert bereits

Im Laufe des Jahres 2024 haben wir beobachtet, wie sich von KI generierte Inhalte auf Bevölkerungsgruppen, Wahlen und Social-Media-Nutzer ausgewirkt haben.

Im Januar erhielten die Einwohner von New Hampshire einen Anruf „von Joe Biden“, in dem sie aufgefordert wurden, nicht an den Vorwahlen teilzunehmen. Hinter dem Betrug steckte der politische Berater Steve Kramer, der mit einer Strafe von 6 Millionen Dollar für die AI-Deepfake-Robocalls belegt wurde. Regierungen haben die Auswirkungen erkannt, die KI haben kann, und Länder wie Singapur haben Gesetze und Strategien entwickelt, um der Bevölkerung zu helfen, Deepfake-Inhalte zu erkennen.

In Venezuela haben von KI erzeugte Videos Desinformation verbreitet – aber auch Journalisten dabei geholfen, durch KI-Avatare Zensur zu umgehen und zu informieren.

Es fällt den Menschen zunehmend schwerer zu unterscheiden, was echt ist und was nicht, und es ist nicht ihre Schuld: AI-generierte Inhalte werden immer besser und besser.

Hochwertige AI-generierte Inhalte sind in all ihren Formen ein wachsendes Geschäft; Text, Audio und Video. Viele OnlyFans-Ersteller verlassen sich derzeit auf Chatbots, um Gespräche mit ihren Fans zu führen, eine Aufgabe, die früher an Gig-Arbeiter in Ländern mit niedrigem Einkommen vergeben wurde. Die neuen AI-Modelle, die auf Flirttechniken spezialisiert sind, haben sogar $1.000 an Trinkgeldern von ihren Followern generiert.

Im April hat das von Nvidia unterstützte Startup Synthesia AI-Avatare eingeführt, die menschliche Emotionen ausdrücken können und in 130 Sprachen sprechen. TikTok ermöglicht Unternehmen, AI-generierte Werbung mit Getty Images-Inhalten zu erstellen, und nun können YouTube-Kreateure die neue AI-Auto-Dubbing-Funktion nutzen, um ihren Inhalt in 9 Sprachen zu übersetzen und zukünftige Updates werden die original Stimme replizieren.

Zoom arbeitet an der Erstellung von AI-Avataren, die genau wie die Benutzer aussehen, um ihnen bei der Aufzeichnung von Nachrichten und sogar bei der Teilnahme an Meetings zu helfen. Dieses Tool wird im nächsten Jahr eingeführt, aber Menschen haben bereits mehrere Tools getestet und Unternehmen können bereits fotorealistische AI-Klone erstellen.

Sind Sie sicher, dass Sie während Ihres letzten Zoom-Anrufs mit einer echten Person gesprochen haben?

Wie kann man feststellen, ob es von einer KI erstellt wurde? Fürs Erste

Wir leben in verwirrenden Zeiten in dieser digitalen Ära. Filter können jeden wie ein Model mit makelloser Haut aussehen lassen, und Photoshop-würdige Korrekturen sind nur einen Klick entfernt auf Instagram oder Snapchat – wie viele Menschen möchten ihr „natürliches“ Bild, Unvollkommenheiten und alles, teilen, wenn es in Sekunden verbessert werden kann? Wir sehen immer mehr Werbung mit fotorealistischen Bildern, die von künstlicher Intelligenz erzeugt werden, die allmählich unsere Augen von ihrer Vertrautheit und „Normalität“ überzeugen. Und jeden Tag machen uns überraschende Ereignisse auf der ganzen Welt fragen: Was ist real und was ist es nicht mehr?

Die großen KI-Unternehmen haben an Wasserzeichen gearbeitet, um ihre KI-generierten Inhalte zu kennzeichnen und leichter erkennen zu können. Google DeepMind startete sein Open-Source-Wasserzeichensystem im Oktober, um KI-Videos, Text und Audio zu kennzeichnen, und Meta hat auch eines in sein KI-Video-Tool integriert.

Aber die Wirksamkeit ist fraglich, angefangen bei Meta, das gerade zugegeben hat, dass sie nicht alle KI-generierten Inhalte kennzeichnen können. Bösartige Akteure können immer noch Möglichkeiten finden, die Wasserzeichen zu entfernen, und es sind mehr Gesetze, Partnerschaften und Vereinbarungen zwischen den sozialen Medienunternehmen und den Regierungen notwendig, um ein erfolgreicheres System zu erreichen.

Für den Moment, neben dem Vertrauen auf unser Bauchgefühl, können wir uns selbst ein paar Fragen stellen, bevor wir etwas in den sozialen Medien teilen oder glauben, was wir sehen:

  • Genau wie Mosseri empfiehlt, sollten wir folgendes in Betracht ziehen: Wer teilt diese Information? Ist dies eine vertrauenswürdige Quelle?
  • Wirkt der Ausdruck oder die Bewegung der Person roboterhaft? Obwohl KI-Avatare ziemlich realistisch sein können, ist es immer noch möglich, eine seltsame Steifheit oder einen Mangel an Emotion zu erkennen – obwohl man bedenken sollte, dass einige Unternehmen wie Synthesia bereits daran arbeiten, dies zu verbessern.
  • Ist der Inhalt darauf ausgelegt, eine starke emotionale Reaktion hervorzurufen? Bösartige Akteure wissen, wie leicht wir negative Nachrichten teilen und mit emotional aufgeladenem Material in sozialen Medien interagieren, und Forschungen bestätigen dies. Bevor Sie diesen Inhalt, der Ihr Blut in Wallung gebracht hat, teilen, um andere genauso empört zu machen wie Sie, denken Sie darüber nach, ob er dazu gedacht ist, Kontroversen zu schüren oder ob es sich tatsächlich um echte Nachrichten oder ein reales Ereignis handelt.
  • Können Sie den Inhalt mit anderen Quellen überprüfen? Eine Überprüfung mit vertrauenswürdigen Quellen schadet nie.

Und schließlich, haben Sie sich selbst – oder Ihren bevorzugten Chatbot – gefragt, wie Sie Ihr kritisches Denken verbessern können? Die Entwicklung einer kritischen Denkweise sollte definitiv zu den Neujahrsvorsätzen eines jeden gehören.

Hat dir der Artikel gefallen?
Wir freuen uns über eine Bewertung!
Ich mag es gar nicht Nicht so mein Fall War ok Ziemlich gut Ich liebe es

Wir freuen uns, dass dir unsere Arbeit gefallen hat!

Würdest du uns als geschätzte Leserin oder geschätzter Leser eine Bewertung auf Trustpilot schreiben? Das geht schnell und bedeutet uns sehr viel. Danke, dass du am Start bist!

Bewerte uns auf Trustpilot
0 Bewertet von 0 Nutzern
Titel
Kommentar
Danke für dein Feedback
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Hinterlasse einen Kommentar

Loader
Loader Mehr anzeigen...