Apple wird aufgefordert, KI-Funktion nach Kontroverse um falsche Schlagzeile zu entfernen
Eine bedeutende Journalismus-Wachhund-Organisation hat Apple dazu aufgerufen, seine generative KI-Funktion zurückzuziehen, nachdem das Tool fälschlicherweise eine Schlagzeile über einen hochkarätigen Mordfall der BBC News zugeschrieben hat.
In Eile? Hier sind die Schnellfakten!
- Apples KI-Tool hat fälschlicherweise eine Schlagzeile über Luigi Mangione BBC News zugeschrieben.
- Reporter ohne Grenzen fordern Apple auf, die KI-Funktion zu entfernen.
- Die BBC reichte eine Beschwerde ein, nachdem die falsche Schlagzeile aufgetaucht war.
Die BBC berichtete am Donnerstag, dass eine Kontroverse entstand, nachdem Apples neue Funktion, Apple Intelligence, fälschlicherweise eine Überschrift generiert hatte. Es wurde vorgeschlagen, dass Luigi Mangione, ein Verdächtiger im Mordfall des Krankenversicherungs-CEO Brian Thompson, sich selbst erschossen hätte. Die BBC hatte einen solchen Artikel jedoch nicht veröffentlicht.
Reporter ohne Grenzen (RSF), eine internationale Organisation, die sich für Pressefreiheit einsetzt, kritisierte Apple und betonte, dass dieses Ereignis die Risiken verdeutlicht, die unreife KI-Tools für die Glaubwürdigkeit der Medien und das öffentliche Vertrauen darstellen.
Vincent Berthier, Leiter des Technologie- und Journalismus-Referats der RSF, verurteilte den Fehltritt und bezeichnete ihn als „Schlag gegen die Glaubwürdigkeit des Mediums“ und eine Bedrohung für den öffentlichen Zugang zu verlässlichen Informationen. RSF forderte Apple auf, das Feature sofort zu entfernen.
„Das Europäische KI-Gesetz – trotz seiner Position als fortschrittlichste Gesetzgebung der Welt in diesem Bereich – hat informationsgenerierende KIs nicht als Hochrisikosysteme eingestuft und so eine kritische rechtliche Lücke hinterlassen. Diese Lücke muss sofort geschlossen werden“, sagte Berthier.
Die BBC bestätigte, dass sie eine offizielle Beschwerde beim Technologieriesen eingereicht und um eine Lösung gebeten hat, aber es bleibt unklar, ob Apple bereits geantwortet hat.
Die fehlerhafte KI-Zusammenfassung war nicht auf BBC News beschränkt. Am 21. November fasste die Funktion einen Artikel der New York Times ungenau zusammen und suggerierte fälschlicherweise, dass der israelische Premierminister Benjamin Netanyahu verhaftet worden sei, wie in dem BBC-Artikel berichtet wurde.
Diese Benachrichtigung, die später vom Journalisten Ken Schwencke hervorgehoben wurde, bezog sich tatsächlich auf einen internationalen Haftbefehl des Internationalen Strafgerichtshofs gegen Netanyahu.
Apple AI notification summaries continue to be so so so bad
— Ken Schwencke (@schwanksta.com) November 21, 2024 at 9:22 PM
Apple Intelligence hat es sich zum Ziel gesetzt, Benachrichtigungsunterbrechungen zu reduzieren, indem sie diese zusammenfasst und gruppiert. Verfügbar auf iPhones, die iOS 18.1 und neuere Modelle laufen lassen, sowie auf ausgewählten iPads und Macs, hat das Tool jedoch Gegenwind erhalten, da es Informationen von seriösen Nachrichtenquellen falsch darstellt.
Ein Sprecher der BBC betonte, dass einige gruppierte Benachrichtigungen zwar Geschichten über globale Ereignisse korrekt zusammengefasst hätten, die Fehlinformationen rund um Mangione jedoch das Potenzial der Technologie zeigten, sowohl Medienunternehmen als auch das öffentliche Verständnis zu schädigen.
RSF warnte, dass „dieser Vorfall verdeutlicht, dass generative KI-Dienste noch zu unreif sind, um zuverlässige Informationen für die Öffentlichkeit zu liefern, und sie sollten nicht für solche Zwecke auf den Markt zugelassen werden.“
Ars Technica hat die Benachrichtigungszusammenfassungen von Apple überprüft und dabei mehrere Probleme festgestellt, die häufig auftreten. Erstens klingen einige Zusammenfassungen, obwohl sie faktisch korrekt sind, roboterhaft und unbeholfen, insbesondere bei sensiblen Themen wie Beziehungen oder psychischer Gesundheit. Andere missverstehen Sarkasmus, Umgangssprache oder idiomatische Ausdrücke und interpretieren sie oft zu wörtlich.
Der Verlust von Kontext ist ein weiteres großes Problem, insbesondere wenn Zusammenfassungen frühere Nachrichten in einem Thread übersehen oder multimediale Inhalte nicht berücksichtigen. In Gruppenchats mit mehreren Themen können Zusammenfassungen überlastet werden, indem sie Themen vermischen und zu Ungenauigkeiten führen.
Schließlich sind einige Zusammenfassungen einfach völlig falsch, oft aufgrund des Versuchs, zu viele Informationen in zu wenige Worte zu komprimieren, was zu verzerrten Darstellungen führt. Insgesamt sind diese Probleme, die die Nützlichkeit und Genauigkeit der Funktion beeinträchtigen, im täglichen Gebrauch häufig anzutreffen.
Mangione, der nun wegen Mordes ersten Grades angeklagt ist, ist zu einem Brennpunkt in der Debatte über die Risiken im Zusammenhang mit KI im Journalismus geworden. Die Abhängigkeit der Öffentlichkeit von glaubwürdigen Nachrichten steht auf dem Spiel, da Apple unter wachsendem Druck steht, das Problem anzugehen.
Hinterlasse einen Kommentar
Abbrechen