ChatGPT, der New Yorker Anwalt und erfundene Urteile: eine Art Fortsetzung

von Peter Winslow, veröffentlicht am 09.06.2023

Im Rahmen meiner Fallbeschreibung wollte ich eine Korrektur einiger in Deutschland veröffentlichten Berichterstattungen vornehmen. Nun muss ich eine Korrektur meiner Korrektur vornehmen. Als ich die Fallbeschreibung am 31. Mai 2023 hier in der beck-community veröffentlichte, ordnete ich die Einzelheiten chronologisch in den Tatsachenverlauf nach den in den öffentlich zugänglichen Dokumenten enthaltenen Angaben ein. Die chronologische Einordnung einer Einzelheit ließ sich jedoch nur raten und ich ordnete diese da ein, nicht nur wo sie Sinn ergab, sondern auch wo Herr Schwartz am wenigsten lächerlich wirkte. Ich hatte nicht, und habe immer noch nicht, die Absicht, Herrn Schwartz lächerlich zu machen; dabei braucht er keine Hilfe – weder von mir noch von anderen. Sein Verhalten spricht für sich.

Überhaupt betrifft die entsprechende Einzelheit den Zeitpunkt, zu dem Herr Schwartz die ChatGPT-Ergebnisse durch ChatGPT prüfen ließ. In seinem Affidavit vom 24. Mai 2023 behauptete er lediglich, diese Prüfung vorgenommen zu haben, ordnete diese aber nicht chronologisch in den Tatsachenverlauf ein. Meiner Annahme nach müsste Herr Schwartz zumindest über die rudimentärsten Kenntnisse generativer KI verfügen und dieser Technologie zumindest mit etwas Skepsis begegnet haben – und dass er infolge eines Pechanfalls zum Opfer des KI-Hypes fiel. Angesichts dieser Annahme schien mir die wohlwollendste Auslegung seines Affidavits vom 24. Mai 2023 die zu sein, dass dieser Zeitpunkt im Februar 2023 – also vor Einreichung des verhängnisvollen Schriftsatzes vom 28. Februar 2023 – liegen müsste. Zukünftig bin ich vorsichtiger. Ohne Weiteres zweifele ich nie wieder an der Unkenntnis eines Menschen. Ohne Weiteres unterstelle ich keinem Menschen mehr eine ungerechtfertigte skeptische Haltung. Denn vorliegend wurde mir das Wohlwollen zum Verhängnis. Es verleitete mich zur unzutreffenden Einordnung dieser Prüfung in den Tatsachenverlauf.

Nicht im Februar 2023 ließ Herr Schwartz die ChatGPT-Ergebnisse durch ChatGPT prüfen. Erst im Mai 2023 ließ er diese prüfen. Aus Ziffer 30 seines Affidavits vom 6. Juni 2023 geht nun hervor, dass er die ChatGPT-Ergebnisse durch ChatGPT erst prüfen ließ, nachdem die von ChatGPT erfundenen Urteile vorgetragen und die Erfundstellen beim Gericht eingereicht wurden. Dass die Ergebnisse dieser Prüfung der Anlass seines Affidavits vom 24. Mai 2023 war. Bis zum Mai 2023 habe Herr Schwartz den Irrglauben gehegt, dass »ChatGPT eine zuverlässige Suchmaschine war«[meine Übersetzung][i] und dass ChatGPT

im Wesentlichen wie eine anspruchsvolle Suchmaschine funktionierte, wobei Nutzer Suchanfragen eingeben könnten und ChatGPT aufgrund öffentlich zugänglicher Informationen Antworten in natürlicher Sprache lieferte. [meine Übersetzung][ii]

Seine Erfahrung mit ChatGPT bei der Recherche im Zusammenhang mit dem Schriftsatz vom 28. Februar 2023, der Quelle seines Weltruhms, habe seinen Irrglauben nur verstärkt. Bei jeder Suchanfrage habe ihm »ChatGPT eine positive Antwort geliefert, inklusive Vollzitate von Rechtssachen, die scheinbar echt waren«.[iii] Er habe

einfach nicht geahnt, dass ChatGPT imstande war, Vollzitate von Rechtssachen oder gar Gerichtsurteile zu erfinden, nicht zuletzt auf eine Art und Weise, die den Anschein der Echtheit hatte [meine Übersetzung].[iv]

Für Herrn Schwartz hatten die durch ChatGPT gelieferten Antworten deswegen den Anschein der Echtheit, weil diese mehrere Indizien der Glaubwürdigkeit aufwiesen, die auf Echtheit hindeuteten, unter anderem: Namen von Richtern an entsprechend richtigen Gerichten, detaillierte Tatsachenbeschreibungen, rechtliche Würdigungen.[v] Erst nach dem Schreiben der Gegenseite vom 26. April 2023 und Erlass des Orders to show cause vom 4. Mai 2023 musste Herr Schwartz einsehen, dass er einen schwerwiegenden Fehler begangen habe und dass die Suchaspekte des Softwareprograms ChatGPT einen schwerwiegenden Mangel aufwiesen,[vi] das heißt: dass ChatGPT gar keine Suchmaschine sei. Auf diese Einsichten hin ließ er die ChatGPT-Ergebnisse durch ChatGPT prüfen – als Nachweis, dass er dem KI-Hype zum Opfer gefallen sei; zur Gewährleistung der Transparenz, dass er weder das Gericht noch die Gegenseite betrügen wollte.[vii] Und er reichte das entsprechende Affidavit vom 24. Mai 2023 beim Gericht ein.

Aber Fragen häufen sich. Warum hat er ChatGPT überhaupt verwendet? Warum hat er diesen Fehler nicht früher erkannt? Warum blieben diese Einsichten solange aus? Wie Herr Schwartz weiß und wie ihn ChatGPT auch – ich gebe’s nicht gerne zu – darauf hinwies, existieren Datenbanken wie Westlaw und LexisNexis, die Herr Schwartz zur Recherche seiner Rechtsfragen hätte verwenden können. Warum hatte er diese nicht in Anspruch genommen? Die Antwort auf all diese Fragen lautet: mangels eines Abonnements.

Zwar unterhält die Kanzlei, die Levidow, Levidow, & Oberman, P.C., bei der Herr Schwartz Partner ist, kein Abonnement für Westlaw oder LexisNexis, aber sie unterhält ein Abonnement für eine andere Datenbank, Fastcase, mit der man wie bei Westlaw und LexisNexis auch Recherche zur Rechtsprechung auf Bundesstaats- und Bundesebene betreiben kann.[viii] Aufgrund eines »billing error« wurde aber das Fastcase-Abonnement der Kanzlei geändert; ihr Abonnement galt nicht mehr für die Rechtsprechung auf Bundesstaats- und Bundesebene. Der Zugang zu der Rechtsprechung auf Bundesebene wurde verwehrt.[ix] Ab wann? Dies geht nicht aus den öffentlich zugänglichen Dokumenten in dieser Sache hervor. Klar ist jedoch, dass diese Verwehrung bis zum Februar 2023 deswegen unbekannt blieb, weil die Kanzlei nur selten Mandant:innen vor Bundesrichten wie dem S.D.N.Y vertrete.[x] Erst als Herr Schwartz die Recherche für den verhängnisvollen Schriftsatz betrieben habe, sei ihm diese Verwehrung aufgefallen.[xi]Bekanntlich kennt die Not kein Gebot. Und in der Not informierte er scheinbar niemanden bei der Kanzlei über diese Verwehrung und wandte sich zum ersten Mal im Leben an ChatGPT.[xii]

Als die Gegenseite mit Reply Memorandum vom 15. März 2023 die ersten Zweifeln an der Echtheit der durch ChatGPT erfundenen Urteile bekannt gab und das Gericht den Order vom 11. April 2023 erlass mit der Aufforderung, ein Affidavit nebst den erfundenen Urteilen einzureichen, konnte Herr Schwartz die Urteile weiterhin nicht mittels der Fastcase-Datenbank der bundesrechtlichen Rechtsprechung prüfen und wandte sich wieder an ChatGPT. Da er den Irrglauben weiterhin gehegt habe, dass ChatGPT eine Suchmaschine sei, sei er nicht auf die Idee gekommen, die Recherche-Möglichkeiten – inklusive Westlaw und LexusNexis – in Anspruch zu nehmen, die etwa die örtliche Anwaltskammer zur Verfügung stelle.[xiii] Wie beim Schriftsatz vom 28. Februar 2023 hat Herr Schwartz die ChatGPT-Ergebnisse einfach wiedergegeben.

Die Folge? Das Affidavit vom 25. April 2023, mit dem Herr LoDuca die sechs von ChatGPT erfundenen Urteile jeweils in Kopie einreichte und dessen Notarisierung das Gericht scheinbar aus zwei Gründen als »falsch und betrügerisch« bezeichnete. Auf der einen Seite steht der Notarvermerk. Er wurde nämlich nicht auf den 25. April 2023 datiert, sondern auf den 25. Januar 2023. Geht das Gericht davon aus, dass Herr Schwartz und Herr LoDuca mindestens seit Januar 2023 geplant hätten, erfundene Urteile beim Gericht einzureichen? Wenn ja, so stellen die Vorträge des Herrn Schwartz und Herrn LoDuca glaubhaft dar, dass die falsche Datierung nicht auf einen geplanten Betrug, sondern auf ein Versehen infolge der Wiederverwendung einer Affidavit-Vorlage zurückzuführen sei. Dieses Versehen dürfte nicht zu berufsrechtlichen Sanktionen führen. Auf der anderen Seite steht scheinbar die Einreichung der sechs durch ChatGPT erfundenen Urteile. Mit Memo Endorsement vom 1. Juni 2023 stellt das Gericht klar, dass es wissen möchte, ob Herr LoDuca am 25. April 2023 vor Herrn Schwartz erschien und einen Eid ablegte, wahrheitsgemäße Angaben in seinem Affidavit vom 25. April 2023 gemacht zu haben. Ich sage »scheinbar«, denn ich interpretiere dieses Verlangen des Gerichts dahingehend, dass das Gericht bestätigt bekommen möchte, ob Herr LoDuca vor Einreichung der sechs erfundenen Urteile wusste, dass die erfundenen Urteile erfunden waren. Nun stellt sich die Frage, ob dies zum Verhängen berufsrechtlicher Sanktionen ausreicht.

Nach dem Amended Memorandum of Law, eingereicht am 8. Juni 2023 im Namen von Herrn Schwartz und der Kanzlei Levidow, Levidow, & Oberman, P.C., reiche diese Einreichung nicht dazu aus. Denn berufsrechtliche Sanktionen könnten nur dann verhängt werden, wie es auf Seite 1 des Amended Memorandum of Law wörtlich heißt,

wenn Herr Schwartz und die Kanzlei [durch Herrn LoDuca] tatsächlich gewusst haben, dass die Rechtsprechung falsch war und, wenn sie diese gestellt haben, um das Gericht zu betrügen« [meine Übersetzung].

Vorliegend liege aber diese Voraussetzung aus drei Gründen nicht vor, die jeweils auf Seite 14 dieses Memorandums zusammengefasst sind. Erstens sei das Verhalten von Herrn Schwartz auf »ein grundlegendes Missverständnis davon zurückzuführen, was ChatGPT ist und wie es funktioniert« [meine Übersetzung]. Zweitens habe Herr Schwartz unmöglich wissen können, dass ChatGPT ganze Urteile erfinden und dann die Erfindung aufrechterhalten würde, als er die Ergebnisse infrage stellte. Drittens habe Herr Schwartz das Gericht unmittelbar nach Kenntnisnahme der Erfindungen über diese informiert. All das spreche nicht nur gegen die Annahme, dass Herr Schwartz und die Kanzlei tatsächlich von der Falschheit der Urteile gewusst haben, sondern auch gegen die Annahme, dass sie diese mit Betrugsabsichten gestellt haben.

Ob sich das Gericht durch die diesen Gründen zugrundeliegende Argumentation überzeugen lässt, bleibt abzuwarten. Die Anhörung in dieser Sache fand gestern, den 8. Juni 2023, statt. Und das Gericht behält sich noch eine Entscheidung vor.

 

[i] Ziffer 3 des Affidavits des Herrn Schwartz vom 6.Juni 2023.

[ii] Ziffer 15 des Affidavits des Herrn Schwartz vom 6.Juni 2023.

[iii] Ziffer 18 des Affidavits des Herrn Schwartz vom 6.Juni 2023.

[iv] Ziffer 20 des Affidavits des Herrn Schwartz vom 6.Juni 2023.

[v] Ziffer 30 des Affidavits des Herrn Schwartz vom 6.Juni 2023.

[vi] Ziffer 29 des Affidavits des Herrn Schwartz vom 6.Juni 2023.

[vii] Ziffer 31 des Affidavits des Herrn Schwartz vom 6.Juni 2023.

[viii] Ziffer 8 des Affidavits des Herrn Thomas Corvino vom 6. Juni 2023. Herr Corvino ist der einzige equity partner der Kanzlei, Levidow, Levidow, & Obemran, P.C.

[ix] Ziffer 10 des Affidavits des Herrn Thomas Corvino vom 6. Juni 2023.

[x] Ziffer 10 des Affidavits des Herrn Thomas Corvino vom 6. Juni 2023.

[xi] Ziffer 12 des Affidavits des Herrn Schwartz vom 6.Juni 2023.

[xii] Ziffer 13 des Affidavits des Herrn Schwartz vom 6.Juni 2023.

[xiii] Siehe Ziffern 22–25 des Affidavits des Herrn Schwartz vom 6.Juni 2023.

Diesen Beitrag per E-Mail weiterempfehlenDruckversion

Hinweise zur bestehenden Moderationspraxis
Kommentar schreiben

2 Kommentare

Kommentare als Feed abonnieren

Hm, ist das jetzt von den Anwälten der Anwäte eine bewusste versuchte (weitere) Irreführung des Gerichts oder ein wirklich erschreckender Fall von Ignoranz? In dem "ammended memorandum" schreiben sie in der Einführung "a lawyer using a new, highly-touted research tool obtained cases that the research tool itself completely made up". Research tool? Als Recherchewerkzeug angepriesen? Und das in einem Schreiben, das denjenigen, dessen Irrtum gerade darin bestand, eine Texterzeugungsmaschine für ein solches gehalten zu haben, entschuldigen soll? Schräg...

Sie haben Recht. Der Satz ist schwierig. Und Ihre Fragen sind durchaus berechtigt. Ich bin gespannt, wie das Gericht diesen und die weiteren Vorträge bewertet. Ich berichte, sobald eine Entscheidung erlassen wird.

Kommentar hinzufügen