Verstörender Inhalt und niedriger Lohn: Kenianische Arbeiter äußern sich zur Ausbeutung in KI-Jobs

Image by OER Africa, from Flickr

Verstörender Inhalt und niedriger Lohn: Kenianische Arbeiter äußern sich zur Ausbeutung in KI-Jobs

Lesezeit: 4 Min.

Kenianische Arbeiter, die KI schulen, stehen vor Ausbeutung: niedrige Löhne, emotionale Belastung durch verstörende Inhalte und Klagen gegen Technologieunternehmen wegen schlechter Arbeitsbedingungen.

Im Eiltempo? Hier sind die wichtigsten Fakten!

  • Kenianische Arbeiter kennzeichnen Bilder und Videos für KI-Systeme für 2 $ pro Stunde.
  • Die Arbeiter stehen emotionaler Belastung durch verstörende Inhalte wie Gewalt und Pornografie gegenüber.
  • Die Anreize der kenianischen Regierung haben die Löhne oder Arbeitsbedingungen für lokale Arbeiter nicht verbessert.

Kenianische Arbeiter werden laut Arbeitern und Aktivisten von großen US-Technologieunternehmen ausgenutzt, um künstliche AI-Systeme zu trainieren. Sie verrichten mühsame Aufgaben für Löhne, die weit unter den örtlichen Lebenshaltungskosten liegen, wie ein Bericht von CBS News im Detail darlegt.

Diese Arbeiter, bekannt als „Menschen in der Schleife“, sind unerlässlich, um KI-Algorithmen zu schulen. Sie sortieren, beschriften und sichten riesige Datensätze, um KI für Unternehmen wie Meta, OpenAI, Microsoft und Google zu trainieren. Diese essentielle, schnelllebige Arbeit wird oft in Regionen wie Afrika ausgelagert, um Kosten zu senken, berichtet CBS.

Diese „Menschen in der Schleife“ findet man nicht nur in Kenia, sondern auch in Ländern wie Indien, den Philippinen und Venezuela – Orten mit großen, gering bezahlten Bevölkerungsgruppen von gut ausgebildeten, aber arbeitslosen Menschen, hebt CBS hervor.

Naftali Wambalo, ein kenianischer Arbeiter in Nairobi, verbringt seine Tage damit, Bilder und Videos für KI-Systeme zu beschriften. Obwohl er einen Abschluss in Mathematik hat, findet sich Wambalo oft dabei wieder, lange Stunden für nur $2 pro Stunde zu arbeiten, berichtet CBS.

Er sagt, dass er seinen Tag damit verbringt, Bilder von Möbeln zu kategorisieren oder die Ethnie von Gesichtern auf Fotos zu identifizieren, um KI-Algorithmen zu trainieren. „Die Roboter oder die Maschinen, Sie lehren ihnen, wie ein Mensch zu denken, Dinge zu tun wie ein Mensch“, sagte er, wie CBS berichtete.

Die Arbeit ist jedoch alles andere als einfach. Wambalo, wie viele KI-Mitarbeiter, wird von Meta und OpenAI mit Projekten beauftragt, die die Überprüfung von verstörenden Inhalten beinhalten, wie zum Beispiel explizite Gewalt, Pornographie und Hassreden – Erfahrungen, die einen bleibenden emotionalen Eindruck hinterlassen.

„Ich habe Leute gesehen, die geschlachtet wurden, Leute, die sexuelle Aktivitäten mit Tieren ausführten. Menschen, die Kinder körperlich und sexuell missbrauchen. Menschen, die Selbstmord begehen“, sagte Wambalo zu CBS.

Die Nachfrage nach Arbeitskräften in der KI-Training steigt weiterhin, doch die Löhne bleiben schockierend niedrig. So werden beispielsweise die Mitarbeiter von SAMA, einem amerikanischen Outsourcing-Unternehmen mit über 3.000 Mitarbeitern, von Meta und OpenAI beauftragt, wie CBS berichtet.

Laut von CBS eingesehenen Dokumenten hat OpenAI zugestimmt, SAMA 12,50 Dollar pro Stunde pro Arbeiter zu zahlen, weit mehr als die 2 Dollar, die die Arbeiter tatsächlich erhalten haben. SAMA behauptet jedoch, dass dieser Lohn für die Region angemessen ist.

Die Bürgerrechtsaktivistin Nerima Wako-Ojiwa argumentiert, dass diese Arbeitsplätze eine Form der Ausbeutung darstellen. Sie beschreibt sie als Billigarbeitskräfte, wobei Unternehmen in die Region kommen, die Jobs als Chancen für die Zukunft bewerben, aber letztendlich die Arbeiter ausbeuten, wie CBS berichtet.

Arbeitnehmern werden oft nur kurzfristige Verträge angeboten – manchmal nur für wenige Tage – ohne Zusatzleistungen oder langfristige Arbeitsplatzsicherheit.

Die kenianische Regierung hat sich darum bemüht, ausländische Technologieunternehmen anzuziehen, indem sie finanzielle Anreize bietet und lockere Arbeitsgesetze fördert. Diese Bemühungen haben jedoch nicht zu besseren Löhnen oder Arbeitsbedingungen für lokale Arbeitnehmer geführt, wie CBS bemerkte.

Die emotionale Belastung ist aufgrund des Inhalts, den sie gezwungen sind zu überprüfen, ein weiteres bedeutendes Anliegen.

Fasica, eine der KI-Mitarbeiterinnen, sagte gegenüber CBS: „Ich habe im Grunde Inhalte überprüft, die sehr grafisch und sehr verstörend sind. Ich habe zerstückelte Körper oder Opfer von Drohnenangriffen gesehen. Nennen Sie es, wie Sie wollen. Sie wissen, wann immer ich darüber spreche, habe ich immer noch Rückblenden.“

SAMA lehnte ein Interview vor der Kamera mit CBS ab. Meta und OpenAI bekundeten ihr Engagement für sichere Arbeitsbedingungen, faire Löhne und Unterstützung für die psychische Gesundheit.

CBS berichtet über ein weiteres US-amerikanisches KI-Trainingsunternehmen, das in Kenia Kritik ausgesetzt ist, nämlich Scale AI, das die Website Remotasks betreibt. Mitarbeiter dieser Plattform werden pro Aufgabe bezahlt. Allerdings behält das Unternehmen manchmal Zahlungen zurück, und begründet dies mit Verstößen gegen die Richtlinien. Ein Arbeiter erklärte CBS, dass es keine Möglichkeit gibt, dagegen vorzugehen.

Als die Beschwerden zunahmen, stellte Remotasks den Betrieb in Kenia ein. Aktivistin Nerima Wako-Ojiwa wies darauf hin, wie die veralteten Arbeitsgesetze in Kenia die Arbeiter dennoch für Ausbeutung anfällig machen.

Nerima Wako-Ojiwa fügte hinzu: „Ich glaube, wir sind so sehr darauf bedacht, ‚Möglichkeiten zu schaffen‘, aber wir fragen nicht, ‚Sind es gute Möglichkeiten?‘“

Hat dir der Artikel gefallen?
Wir freuen uns über eine Bewertung!
Ich mag es gar nicht Nicht so mein Fall War ok Ziemlich gut Ich liebe es

Wir freuen uns, dass dir unsere Arbeit gefallen hat!

Würdest du uns als geschätzte Leserin oder geschätzter Leser eine Bewertung auf Trustpilot schreiben? Das geht schnell und bedeutet uns sehr viel. Danke, dass du am Start bist!

Bewerte uns auf Trustpilot
5.00 Bewertet von 2 Nutzern
Titel
Kommentar
Danke für dein Feedback
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Hinterlasse einen Kommentar

Loader
Loader Mehr anzeigen...