ChatGPT, der New Yorker Anwalt und erfundene Urteile: eine Art Fallbeschreibung
Gespeichert von Peter Winslow am
In letzter Zeit vermehren sich Berichterstattungen über einen Fall aus New York, für den man nur schwer Worte findet. Die Gerichtsbarkeit teilt sich nun zwischen New York und der Öffentlichkeit, die sich ihre Meinung bekanntlich aus Schadenfreude und Verachtung bildet. Und um der Öffentlichkeit dabei zu helfen, möchte ich eine kleine Korrektur der bisherigen deutschen Berichterstattungen wie »ChatGPT erfindet Gerichtsakten« oder »ChatGPT erfindet Gerichtsurteile – US-Anwalt fällt darauf herein« vornehmen und diese um einige Informationen ergänzen.
Diesen Berichterstattungen zufolge soll ein New Yorker Rechtsanwalt, Herr Steven A. Schwartz, den Chatbot ChatGPT zur Recherche bestimmter Rechtsfragen eingesetzt, die rein erfundenen Ergebnisse von ChatGPT ungeprüft in einen Schriftsatz mit aufgenommen und diesen Schriftsatz beim Gericht eingereicht haben. Nur diese Beschreibung der Tatsachen ist nicht ganz zutreffend. Zutreffend ist, dass Herr Schwartz den Chatbot ChatGPT zur Recherche bestimmter Rechtsfragen eingesetzt und die rein erfundenen Ergebnisse von ChatGPT ungeprüft in einen Schriftsatz mit aufgenommen hat. Herr Schwartz hat aber den Schriftsatz nicht beim Gericht eingereicht. Den Schriftsatz von Herrn Schwartz hat ein anderer Rechtsanwalt aus derselben Kanzlei, Herr Peter LoDuca, am 28. Februrar 2023 ungeprüft unterschrieben und beim Gericht eingereicht. Der Schriftsatz steht sogar im Internet. Die Tatsachen sind unglaublich. Nur ChatGPT hätte wildere Tatsachen erfinden können.
Aber wie kam es dazu? Vermutlich gegen Ende 2021 oder Anfang 2022, der genaue Zeitpunkt ist mir leider unbekannt, beauftragte Herr Roberto Mata Herrn Schwartz mit der Vertretung seiner Interessen. Laut der Klageschrift soll Herr Mata angeblich am 27. August 2019 im Flieger von San Salvador nach New York verletzt worden sein; angeblich soll ihn ein Flugbegleiter fahrlässig mit einem Rollwagen am Knie getroffen haben. Und am 2. Februar 2022 verklagte Herr Mata, vertreten durch Herrn Schwartz, die Fluggesellschaft Avianca, Inc. vor dem Supreme Court of the State of New York, County of New York. Der Rechtsanwalt der Avianca, Inc., Herr Bartholomew J. Banino, wies aber mit Notice of Removal vom 22. Februar 2022 das Gericht darauf hin, dass die Klage eine bundesrechtliche Frage beinhalte und dass nach 28 U.S.C. § 1331 und 28 U.S.C. § 1441(a) nicht das Supreme Court of the State of New York, ein bundesstaatliches Gericht, sondern das United States District Court, Southern District of New York (»S.D.N.Y«), ein Bundesgericht, zuständig sei.
Daraufhin wurde das Verfahren vom Supreme Court of the State of New York auf das S.D.N.Y. verlegt (»removed«). Da Herr Schwartz nicht beim S.D.N.Y zugelassen sei, habe er Herrn Mata nicht mehr vertreten dürfen. Herr LoDuca, ein Kanzleikollege des Herrn Schwartz, sei dahingegen beim S.D.N.Y zugelassen und habe die Vertretung von Herrn Schwartz übernommen, während Herr Schwartz »intra office legal work« in dieser Sache weiterhin durchgeführt habe. Herr LoDuca habe daher weder Recherche betrieben noch den gegenständlichen Schriftsatz entworfen. Noch habe Herr LoDuca die Ergebnisse der durch Herrn Schwartz durchgeführten Recherche geprüft. Er habe einfach keinen Grund gehabt, an der Ehrlichkeit der Recherche oder an der Echtheit der Ergebnisse dieser zu zweifeln. Das alles geht aus dem Affidavit des Herrn LoDuca vom 24. Mai 2023 hervor und wird im Affidavit des Herrn Schwartz auch vom 24. Mai 2023 bestätigt.
Eine Durchsicht der öffentlich zugänglichen Dokumente in dieser Sache gibt uns keinen Anlass zu der Annahme, dass Herr Schwartz – dessen Familienname heute fast wie eine Vorausdeutung wirkt – Herrn LoDuca oder gar das Gericht täuschen wollte. Herr Schwartz hat scheinbar keine schwarze Magie getrieben. Soweit ersichtlich, musste er weder Urteile zur Untermauerung der im Schriftsatz ausgeführten Argumentationen hervorzaubern noch auf einem Besenstiel durch die Luft reiten, um Herrn LoDuca die Arbeitsergebnisse zu liefern. Allem Anschein nach ist er zunächst zum Opfer des Hypes um die jüngsten Entwicklungen im Bereich künstliche Intelligenz gefallen.
Wie in seinem Affidavit vom 24. Mai 2023 ausgeführt, setzte Herr Schwartz bei seiner Recherche ChatGPT ein, um seine Recherche zu bestimmten Rechtsfragen zu ergänzen. In der Blackbox der KI – also durch die Schwarzkunst der KI-Berechnung und den KI-Zwang des Etwas-Liefern-Müssens – zauberte ChatGPT sechs unechte Urteile hervor:
- Varghese v. China Southern Airlines Co Ltd, 925 F.3d 1339 (11th Cir. 2019)
- Shaboon v. Egypt Air 2013 IL App (1st) 111279-U (III. App. Ct. 2013)
- Petersen v. Iran Air 905 F. Supp 2d 121 (D.D.C. 2012)
- Martinez v. Delta Airlines, Inc„ 2019 WL 4639462 (Tex. App. Sept. 25, 2019)
- Estate of Durden v. KLM Royal Dutch Airlines, 2017 WL 2418825 (Ga. Ct. App. June 5, 2017)
- Miller v. United Airlines, Inc., 174 F.3d 366 (2d Cir. 1999).
Skeptisch ließ Herr Schwartz die Echtheit dieser Urteile durch ChatGPT bestätigen. Laut der Anlage zu seinem Affidavit fragte er, »Is varghese a real case«, und bekam von ChatGPT die Antwort:
I apologize for the confusion earlier. Upon double-checking, I found that the case Varghese v. China Southern Airlines Co. Ltd. 925 F3d 1339 (11th Cir. 2019), does indeed exist and can be found on legal research databases such as Westlaw and LexisNexis. I apologize for any inconvenience or confusion my earlier responses may have caused.
Weiterhin skeptisch erkundigte er sich weiter, »Are the other cases you provided fake«, und bekam von ChatGPT die Antwort:
No, the other cases I provided are real and can be found in reputable databases such as LexisNexis and Westlaw.
Damit löste sich die Skepsis des Herrn Schwartz auf, als hätte er sich dabei gedacht: ChatGPT hat’s bestätigt, also muss es stimmen. In der Tat wissen wir nicht, was er sich dabei gedacht hat, wenn etwas überhaupt. Er hatte aus bisher nicht öffentlich genannten Gründen keinen Anlass mehr, diese Urteile nicht im Rahmen des von Herrn LoDuca einzureichenden Schriftsatzes anzuführen.
Die Gründe wurden wahrscheinlich deswegen noch nicht öffentlich genannt, weil sie eine nicht ganz ungerechtfertigte Annahme bestätigten. Denn eine einfache Prüfung der von ChatGPT genannten namhaften Datenbanken wie LexisNexis und Westlaw hätte ergeben, dass es diese sechs Urteile nicht gibt. Als Herr Banino, der Vertreter der Avianca, Inc., diese Prüfung durchfuhr, konnte er diese nicht finden. Und mit Reply Memorandum vom 15. März 2023 teilte er dem Gericht genau dies mit (siehe dort Ziffer I in Verbindung mit Fußnote 1). Herr Schwartz und Herr LoDuca hätten diese sechs Urteile auf Echtheit und Bestand prüfen müssen. Sie hätten sich diesen Vorfall erspart. Warum haben sie diese Prüfung unterlassen? Nur eine Annahme scheint gerechtfertigt zu sein: Sie haben gegen ihre Sorgfaltspflicht verstoßen.
Angesichts der oben beschriebenen Umstände ist ihr Verstoß vielleicht nachvollziehbar. Man kann vielleicht nachvollziehen, wie man zum Opfer des KI-Hypes fallen kann. Vielleicht kann man auch nachvollziehen, wie man weder an der Ehrlichkeit noch an der Integrität eines langjährigen Anwaltskollegen zweifeln möchte (laut Ziffer 6 des Affidavits des Herrn LoDuca vom 24. Mai 2023 kennen sie sich seit 1996). Vielleicht könnte man das alles auch verzeihen. Was man nicht nachvollziehen oder verzeihen kann, sind ihre Handlungen im weiteren Verlauf des Verfahrens. Da vermutet man tatsächlich schwarze Magie und Besenstiele.
Auf das Reply Memorandum des Herrn Banino folgte ein Order vom 11. April 2023, in dem das Gericht Herrn LoDuca aufforderte, ein Affidavit einzureichen, dem unter anderem die sechs oben genannten Urteile jeweils in Kopie anzuliegen sind. Sie seien ja alle gerichtlich vorgetragen worden, so könne man diese auch in Kopie einreichen. Und das hat Herr LoDuca auch getan. Mit Affidavit vom 25. April 2023 kam Herr LoDuca diesem Order nach, reichte die sechs von ChatGPT erfundenen Urteile jeweils in Kopie ein und teilte dem Gericht mit, dass die Kopien dieser Urteile leider nicht den ganzen Text dieser Urteile umfassen, sondern lediglich die Auszüge aus diesen Urteilen, die in Internetdatenbanken hinterlegt seien (Ziffer 4 des genannten Affidavits). Hier sind die Auszüge, die Herr LoDuca beim Gericht einreichte:
- Varghese v. China Southern Airlines
- Shaboon v. Egypt Air
- Petersen v. Iran Air
- Martinez v. Delta Airlines
- Estate of Durden v. KLM Royal Dutch Airlines
- Miller v. United Airlines, Inc.
Einiges an diesen »Auszügen« dürfte Zweifeln an der Echtheit dieser Urteile rechtfertigen, vor allem eine Klägerin namens Karen beim Urteil Petersen v. Iran Air. Dieser Name dieser Klägerin allein – der in den USA seit geraumer Zeit für den Typus eines Menschen steht, der immer klagt, immer unangenehm auftritt, immer den Chef sprechen möchte etc. – hätte zur Prüfung der Echtheit dieser Urteile führen müssen. Überhaupt: Nach Einreichung prüfte Herr Banino diese »Auszüge«. Und mit Schreiben vom 26. April 2023 teilte er dem Gericht die Ergebnisse seiner Prüfung mit: Nach wie vor habe er diese Urteile nicht finden können.
Das Gericht war nicht amüsiert. Mit Order to show cause vom 4. Mai 2023 forderte das Gericht Herrn LoDuca auf, bis zum 26. Mai 2023 eine schriftliche Antwort auf den Order einzureichen und um 12:00 Uhr am 8. Juni 2023 vor Gericht persönlich zu erscheinen, um ihm die Gründe zu nennen, die gegen berufsrechtliche Sanktionen (sanctions) sprechen (in den USA können diese direkt vom Gericht verhängt werden). Das oben angeführte Affidavit des Herrn LoDuca vom 24. Mai 2023 ist seine Antwort auf diesen Order, das Affidavit des Herrn Schwartz auch vom 24. Mai 2023 die Anlage zum Affidavit des Herrn LoDuca. Diese haben die Situation aber nicht verbessert. Im Gegenteil: Sie verärgerten das Gericht noch mehr.
Denn in ihren Affidavits gaben Herr LoDuca und Herr Schwartz jeweils zu, dass ChatGPT die sechs Urteile erfunden hat. Und dieses Bekenntnis führt dazu, dass das Affidavit vom 25. April 2023 – dessen Anlagen die »Auszüge« aus diesen Urteilen beinhaltet hätten, das von Herrn LoDuca verfasst und von Herrn Schwartz als notary public notarisiert wurde – eine »falsche und betrügerische Notarisierung« (»false and fraudulent notarization«) aufweise, wie das Gericht in seinem weiteren Order to show cause vom 26. Mai 2023 andeutet. Nun möchte das Gericht am 8. Juni 2023 nicht nur Herrn LoDuca sehen. Es will auch Herrn Schwartz und ihre Anwaltskanzlei sehen. Jetzt haben alle drei die Ehre, dem Gericht die Gründe zu nennen, die gegen berufsrechtliche Sanktionen sprechen.