Googles KI-Modell unter europäischer Untersuchung
Die Datenschutzkommission (DPC) hat heute eine Untersuchung gegen Google angekündigt, um zu ermitteln, ob das Unternehmen die EU-Datenschutzgesetze bei der Entwicklung seines KI-Modells, des Pathways Language Model 2 (PaLM 2), eingehalten hat.
PaLM2 ist ein großes Sprachmodell, das in verschiedenen KI-Diensten, einschließlich der E-Mail-Zusammenfassung, verwendet wird. Google hat angegeben, dass es mit der Untersuchung zusammenarbeiten wird, wie die AP berichtet.
Die Untersuchung wird bewerten, ob Google eine Datenschutz-Folgenabschätzung (DPIA) hätte durchführen sollen, um die potenziellen Risiken für die Rechte und Freiheiten von Einzelpersonen durch seine KI-Technologien zu bewerten.
Diese Untersuchung ist Teil der breiteren Bemühungen des DPC, die Einhaltung von Datenschutzregeln im KI-Sektor in ganz Europa zu gewährleisten. Grenzüberschreitende Verarbeitung, die das Handling von Daten in mehreren EU-Ländern oder die Beeinflussung von Einzelpersonen in mehreren Nationen beinhaltet, steht unter besonderer Beobachtung.
Generative AI-Tools, bekannt dafür, überzeugende, aber falsche Informationen zu erzeugen und auf persönliche Daten zuzugreifen, stellen erhebliche rechtliche Risiken dar, wie TechCrunch bemerkt. Die DPC ist dafür verantwortlich, die Einhaltung der Allgemeinen Datenschutzverordnung (DSGVO) durch Google sicherzustellen.
Zu diesem Zweck kann die DPC Geldstrafen von bis zu 4% des globalen Jahresumsatzes des Mutterunternehmens von Google, Alphabet, für Verstöße verhängen, wie TechCrunch berichtet.
Google hat eine Reihe von generativen KI-Tools entwickelt, einschließlich seiner Gemini-Serie von großen Sprachmodellen (früher Bard), die für verschiedene Anwendungen genutzt werden, darunter die Verbesserung der Websuche durch KI-Chatbots, berichtet TechCrunch.
Im Mittelpunkt dieser Tools steht Googles PaLM2, ein grundlegendes LLM, das auf der letzten I/O-Entwicklerkonferenz vorgestellt wurde, so TechCrunch.
Letzten Monat geriet Elon Musks X ebenfalls unter Beobachtung der europäischen Regulierungsbehörden wegen seiner Nutzung von Nutzerdaten für die AI-Trainings. Die DPC leitete eine Untersuchung ein, nachdem Beschwerden eingegangen waren, dass X Nutzerdaten in seine Grok AI-Technologie einspeist, ohne die entsprechende Einwilligung einzuholen. Obwohl X zugestimmt hat, seine Datenverarbeitung einzuschränken, hat es bisher keine Sanktionen gegeben.
Diese Untersuchung ist Teil der breiteren Bemühungen der DPC, die Verwendung von persönlichen Daten in der AI-Entwicklung in der gesamten Europäischen Union zu regulieren. Die jüngste Annahme des Künstliche Intelligenz Gesetzes der EU markiert einen signifikanten Schritt in Richtung der Etablierung eines regulatorischen Rahmens für AI-Technologien innerhalb des Blocks.
Hinterlasse einen Kommentar
Abbrechen