Der ehemalige Trump-Anwalt Michael Cohen gestand vor Gericht, Falschinformationen mit Hilfe von Künstlicher Intelligenz generiert und seinem Anwalt weitergeleitet zu haben. Laut Unterlagen des Bundesgerichts in Manhattan nutzte der 57-Jährige den Chatbot Bard, um Belege für ein Gerichtsverfahren in New York zu finden – doch die Software dichtete ihm Informationen an, die nicht der Realität entsprachen.
In einer eidesstattlichen Erklärung beteuerte Cohen, er sei sich nicht bewusst gewesen, dass es sich bei Google Bard um einen Textgenerator ähnlich dem von ChatGPT handelt. Er räumte seinen Fehler ein, nachdem der Richter in dem Fall ihn um Erklärungen zu drei angeblich zitierten Fällen bat, die er nicht finden konnte.
Cohen war bereits 2018 wegen Verstößen gegen die Nutzungsbedingungen von Wahlkampfspenden für Donald Trump schuldig gesprochen und zu drei Jahren Haft verurteilt worden. Aufgrund der Corona-Pandemie durfte er jedoch einen Teil seiner Strafe im Hausarrest verbringen. Nun fanden sich die fehlerhaften Informationen aufgrund von Cohens Bitte, den Fall zu den Akten zu legen, wieder.
Ob diese Episode Auswirkungen auf den gegenwärtig laufenden Prozess gegen Donald Trump haben wird, bleibt abzuwarten. Cohen trat dort als zentraler Zeuge auf, wird jedoch von der Verteidigung des ehemaligen Präsidenten immer wieder als unzuverlässig dargestellt.
Es ist nicht das erste Mal, dass KI-Programme für Aufsehen in der Rechtsbranche sorgen. Ihre immense Fähigkeiten machen sie allerdings anfällig dafür, vermeintliche Fakten zu "halluzinieren". Bereits zuvor gab es Fälle, in denen Anwälte mithilfe von KI-Chatbots ihre Arbeit erleichtern wollten, sich jedoch letztendlich mit falschen Informationen konfrontiert sahen.