Der halluzinierende Assistent: Anwalt verwendet ChatGPT und lernt wichtige Lektion

In den USA nutzte ein Rechtsbeistand die künstliche Intelligenz für Routinearbeiten und vertraute ihr vorbehaltlos.

In den USA sind Gerichtsverfahren keine Seltenheit, oft wird sogar schnell ge- oder verklagt. So auch in diesem Rechtsstreit der anderen Sorte: Ein Mann wird auf einem Flug von einem Servierwagen angefahren und verklagt anschließend die Fluggesellschaft auf Schmerzensgeld. An diesem Gerichtsverfahren ist nicht nur die Klagschrift kurios, denn wie die New York Times berichtet, nutzte der Anwalt des Klägers ChatGPT zur Recherche.

Wie sich herausstellte, handelte es sich bei dieser Idee um eine Fehlentscheidung: Denn anders als erhofft, hat die KI die Präzedenzfälle nicht recherchiert, sondern scheinbar erfunden. Wie das Medium berichtet, haben die Anwält:innen der Fluglinie versucht die "recherchierten" Fallakten zu finden. Prinzipiell wäre diese Aufgabe problemlos lösbar gewesen, denn die Fälle wurden sogar mit einem entsprechenden Kennzeichen angeführt. Unglücklicherweise waren weder die Beispiele noch die Inhalte der Präzedenzfälle echt, wie bestätigt wurde.

Das Wunder der Technik

Wie das Medium weiters berichtet, waren dem Anwalt des Klägers die Rechercheergebnisse ebenfalls kurios vorgekommen. Da der Chatbot allerdings die Echtheit der Ergebnisse versicherte, hielt der Rechtsvertreter weitere Nachforschungen für unnötig. Ohne Frage ein Fehler, wie nun auch der blamierte Anwalt lernen musste. Obwohl der Google CEO, Sundar Pichai, vor kurzem erklärte für Anwält:innen eine Unterstützung in ChatGPT zu sehen(LEADERSNET berichtete), zeigt diese Blamage doch, dass hier noch Verbesserungspotenzial herrscht.

Für den Chef des Tech-Konzerns wäre die KI vor allem bei Recherchetätigkeiten oder Routinearbeiten hilfreich. In der Vergangenheit haben Rechtsvertreter:innen bereits vermehrt auf die Unterstützung künstlicher Intelligenzen gesetzt, unter anderem für die New Yorker Firma Donotpay. Nach einem gewaltigen Aufschrei nahm der Roboteranwalt des Unternehmens allerdings doch nicht wie angekündigt an einer tatsächlichen Verhandlung teil. Zu Recht, denn wie dieser Fall aufzeigt, sind künstliche Intelligenzen mit Sicherheit nicht unfehlbar. Wie es heißt, warnt sogar OpenAI, die Entwicklerfirma des Chatbots, aufgrund der potenziellen Fehlerquote davor ChatGPT leichtfertig zu vertrauen.

www.openai.com

Kommentar schreiben

* Pflichtfelder.

leadersnet.TV