
Photo by Saúl Bucio on Unsplash
KI-generierte Fehler in Gerichtsdokumenten führen zu rechtlichen Problemen für Anwälte
Ein Bericht, den Reuters gestern geteilt hat, zeigt auf, dass die Halluzinationen von Künstlicher Intelligenz – Fehler und von generativen KI-Modellen erstellte erfundene Informationen – in den US-Gerichten rechtliche Probleme verursachen.
In Eile? Hier sind die schnellen Fakten!
- Morgan & Morgan hat eine E-Mail an 1.000 Anwälte geschickt, in der vor den Risiken der KI gewarnt wird.
- Der jüngste Fall, in dem Anwälte von Walmart zugegeben haben, KI für ihre Fälle zu nutzen, hat in der Anwaltschaft Alarm ausgelöst.
- Die Verwendung von Chatbot-Halluzinationen in Gerichtsaussagen ist in den letzten Jahren zu einem wiederkehrenden Problem geworden.
Diesen Monat hat die Anwaltskanzlei Morgan & Morgan eine E-Mail an über 1.000 Anwälte verschickt, in der sie vor den Risiken bei der Nutzung von Chatbots und durch künstliche Intelligenz generierten Fake-Fällen warnt.
Vor einigen Tagen gaben zwei Anwälte in Wyoming zu, in einer Klageschrift gegen Walmart künstlich generierte Scheinfälle in die Gerichtsakten aufgenommen zu haben, und ein Bundesrichter drohte ihnen mit Sanktionen.
Im Dezember wurde der Stanford-Professor und Desinformations-Experte Jeff Hancock beschuldigt, Künstliche Intelligenz zur Fälschung von Gerichtserklärungs-Zitaten als Teil seiner Verteidigung des Gesetzes des Staates aus dem Jahr 2023, das die Verwendung von Deepfakes zur Beeinflussung von Wahlen unter Strafe stellt, verwendet zu haben.
In den letzten Jahren haben mehrere Fälle wie diese rechtliche Reibungspunkte verursacht und Richtern sowie Klägern zusätzliche Probleme bereitet. Morgan & Morgan und Walmart lehnten es ab, zu diesem Thema Stellung zu nehmen.
Generative KI hat Anwälten geholfen, die Forschungszeit zu reduzieren, aber ihre „Halluzinationen“ können erhebliche Kosten verursachen. Eine Umfrage von Thomson Reuters im letzten Jahr ergab, dass 63% der Anwälte KI für die Arbeit nutzen und 12% dies regelmäßig tun.
Letztes Jahr erinnerte die American Bar Association ihre 400.000 Mitglieder an die Anwalts-Ethikregeln, die unter anderem beinhalten, dass Anwälte sämtliche Informationen in ihren Gerichtsunterlagen unterstützen müssen. Sie wies darauf hin, dass dies auch auf durch KI generierte Informationen zutrifft, selbst wenn diese unbeabsichtigt waren – wie im Fall Hancock.
„Wenn Anwälte dabei erwischt werden, dass sie ChatGPT oder irgendein anderes generatives KI-Tool verwenden, um Zitate zu erstellen, ohne sie zu überprüfen, dann ist das schlichtweg Inkompetenz“, sagte Andrew Perlman, Dekan der juristischen Fakultät der Suffolk University, gegenüber Reuters.
Vor einigen Tagen teilte die BBC auch einen Bericht über die Warnung vor gefälschten Zitaten, die von KI erzeugt werden, sowie die Probleme mit KI-Tools im Journalismus.
Hinterlasse einen Kommentar
Abbrechen