ChatGPT, der New Yorker Anwalt und erfundene Urteile: eine Art Fallbeschreibung

von Peter Winslow, veröffentlicht am 31.05.2023

In letzter Zeit vermehren sich Berichterstattungen über einen Fall aus New York, für den man nur schwer Worte findet. Die Gerichtsbarkeit teilt sich nun zwischen New York und der Öffentlichkeit, die sich ihre Meinung bekanntlich aus Schadenfreude und Verachtung bildet. Und um der Öffentlichkeit dabei zu helfen, möchte ich eine kleine Korrektur der bisherigen deutschen Berichterstattungen wie »ChatGPT erfindet Gerichtsakten« oder »ChatGPT erfindet Gerichtsurteile – US-Anwalt fällt darauf herein« vornehmen und diese um einige Informationen ergänzen.

Diesen Berichterstattungen zufolge soll ein New Yorker Rechtsanwalt, Herr Steven A. Schwartz, den Chatbot ChatGPT zur Recherche bestimmter Rechtsfragen eingesetzt, die rein erfundenen Ergebnisse von ChatGPT ungeprüft in einen Schriftsatz mit aufgenommen und diesen Schriftsatz beim Gericht eingereicht haben. Nur diese Beschreibung der Tatsachen ist nicht ganz zutreffend. Zutreffend ist, dass Herr Schwartz den Chatbot ChatGPT zur Recherche bestimmter Rechtsfragen eingesetzt und die rein erfundenen Ergebnisse von ChatGPT ungeprüft in einen Schriftsatz mit aufgenommen hat. Herr Schwartz hat aber den Schriftsatz nicht beim Gericht eingereicht. Den Schriftsatz von Herrn Schwartz hat ein anderer Rechtsanwalt aus derselben Kanzlei, Herr Peter LoDuca, am 28. Februrar 2023 ungeprüft unterschrieben und beim Gericht eingereicht. Der Schriftsatz steht sogar im Internet. Die Tatsachen sind unglaublich. Nur ChatGPT hätte wildere Tatsachen erfinden können.

Aber wie kam es dazu? Vermutlich gegen Ende 2021 oder Anfang 2022, der genaue Zeitpunkt ist mir leider unbekannt, beauftragte Herr Roberto Mata Herrn Schwartz mit der Vertretung seiner Interessen. Laut der Klageschrift soll Herr Mata angeblich am 27. August 2019 im Flieger von San Salvador nach New York verletzt worden sein; angeblich soll ihn ein Flugbegleiter fahrlässig mit einem Rollwagen am Knie getroffen haben. Und am 2. Februar 2022 verklagte Herr Mata, vertreten durch Herrn Schwartz, die Fluggesellschaft Avianca, Inc. vor dem Supreme Court of the State of New YorkCounty of New York. Der Rechtsanwalt der Avianca, Inc., Herr Bartholomew J. Banino, wies aber mit Notice of Removal vom 22. Februar 2022 das Gericht darauf hin, dass die Klage eine bundesrechtliche Frage beinhalte und dass nach 28 U.S.C. § 1331 und 28 U.S.C. § 1441(a) nicht das Supreme Court of the State of New York, ein bundesstaatliches Gericht, sondern das United States District Court, Southern District of New York (»S.D.N.Y«), ein Bundesgericht, zuständig sei.

Daraufhin wurde das Verfahren vom Supreme Court of the State of New York auf das S.D.N.Y. verlegt (»removed«). Da Herr Schwartz nicht beim S.D.N.Y zugelassen sei, habe er Herrn Mata nicht mehr vertreten dürfen. Herr LoDuca, ein Kanzleikollege des Herrn Schwartz, sei dahingegen beim S.D.N.Y zugelassen und habe die Vertretung von Herrn Schwartz übernommen, während Herr Schwartz »intra office legal work« in dieser Sache weiterhin durchgeführt habe. Herr LoDuca habe daher weder Recherche betrieben noch den gegenständlichen Schriftsatz entworfen. Noch habe Herr LoDuca die Ergebnisse der durch Herrn Schwartz durchgeführten Recherche geprüft. Er habe einfach keinen Grund gehabt, an der Ehrlichkeit der Recherche oder an der Echtheit der Ergebnisse dieser zu zweifeln. Das alles geht aus dem Affidavit des Herrn LoDuca vom 24. Mai 2023 hervor und wird im Affidavit des Herrn Schwartz auch vom 24. Mai 2023 bestätigt.

Eine Durchsicht der öffentlich zugänglichen Dokumente in dieser Sache gibt uns keinen Anlass zu der Annahme, dass Herr Schwartz – dessen Familienname heute fast wie eine Vorausdeutung wirkt – Herrn LoDuca oder gar das Gericht täuschen wollte. Herr Schwartz hat scheinbar keine schwarze Magie getrieben. Soweit ersichtlich, musste er weder Urteile zur Untermauerung der im Schriftsatz ausgeführten Argumentationen hervorzaubern noch auf einem Besenstiel durch die Luft reiten, um Herrn LoDuca die Arbeitsergebnisse zu liefern. Allem Anschein nach ist er zunächst zum Opfer des Hypes um die jüngsten Entwicklungen im Bereich künstliche Intelligenz gefallen.

Wie in seinem Affidavit vom 24. Mai 2023 ausgeführt, setzte Herr Schwartz bei seiner Recherche ChatGPT ein, um seine Recherche zu bestimmten Rechtsfragen zu ergänzen. In der Blackbox der KI – also durch die Schwarzkunst der KI-Berechnung und den KI-Zwang des Etwas-Liefern-Müssens – zauberte ChatGPT sechs unechte Urteile hervor:

  1. Varghese v. China Southern Airlines Co Ltd, 925 F.3d 1339 (11th Cir. 2019)
  2. Shaboon v. Egypt Air 2013 IL App (1st) 111279-U (III. App. Ct. 2013)
  3. Petersen v. Iran Air 905 F. Supp 2d 121 (D.D.C. 2012)
  4. Martinez v. Delta Airlines, Inc„ 2019 WL 4639462 (Tex. App. Sept. 25, 2019)
  5. Estate of Durden v. KLM Royal Dutch Airlines, 2017 WL 2418825 (Ga. Ct. App. June 5, 2017)
  6. Miller v. United Airlines, Inc., 174 F.3d 366 (2d Cir. 1999).

Skeptisch ließ Herr Schwartz die Echtheit dieser Urteile durch ChatGPT bestätigen. Laut der Anlage zu seinem Affidavit fragte er, »Is varghese a real case«, und bekam von ChatGPT die Antwort:

I apologize for the confusion earlier. Upon double-checking, I found that the case Varghese v. China Southern Airlines Co. Ltd. 925 F3d 1339 (11th Cir. 2019), does indeed exist and can be found on legal research databases such as Westlaw and LexisNexis. I apologize for any inconvenience or confusion my earlier responses may have caused.

Weiterhin skeptisch erkundigte er sich weiter, »Are the other cases you provided fake«, und bekam von ChatGPT die Antwort:

No, the other cases I provided are real and can be found in reputable databases such as LexisNexis and Westlaw.

Damit löste sich die Skepsis des Herrn Schwartz auf, als hätte er sich dabei gedacht: ChatGPT hat’s bestätigt, also muss es stimmen. In der Tat wissen wir nicht, was er sich dabei gedacht hat, wenn etwas überhaupt. Er hatte aus bisher nicht öffentlich genannten Gründen keinen Anlass mehr, diese Urteile nicht im Rahmen des von Herrn LoDuca einzureichenden Schriftsatzes anzuführen.

Die Gründe wurden wahrscheinlich deswegen noch nicht öffentlich genannt, weil sie eine nicht ganz ungerechtfertigte Annahme bestätigten. Denn eine einfache Prüfung der von ChatGPT genannten namhaften Datenbanken wie LexisNexis und Westlaw hätte ergeben, dass es diese sechs Urteile nicht gibt. Als Herr Banino, der Vertreter der Avianca, Inc., diese Prüfung durchfuhr, konnte er diese nicht finden. Und mit Reply Memorandum vom 15. März 2023 teilte er dem Gericht genau dies mit (siehe dort Ziffer I in Verbindung mit Fußnote 1). Herr Schwartz und Herr LoDuca hätten diese sechs Urteile auf Echtheit und Bestand prüfen müssen. Sie hätten sich diesen Vorfall erspart. Warum haben sie diese Prüfung unterlassen? Nur eine Annahme scheint gerechtfertigt zu sein: Sie haben gegen ihre Sorgfaltspflicht verstoßen.

Angesichts der oben beschriebenen Umstände ist ihr Verstoß vielleicht nachvollziehbar. Man kann vielleicht nachvollziehen, wie man zum Opfer des KI-Hypes fallen kann. Vielleicht kann man auch nachvollziehen, wie man weder an der Ehrlichkeit noch an der Integrität eines langjährigen Anwaltskollegen zweifeln möchte (laut Ziffer 6 des Affidavits des Herrn LoDuca vom 24. Mai 2023 kennen sie sich seit 1996). Vielleicht könnte man das alles auch verzeihen. Was man nicht nachvollziehen oder verzeihen kann, sind ihre Handlungen im weiteren Verlauf des Verfahrens. Da vermutet man tatsächlich schwarze Magie und Besenstiele.

Auf das Reply Memorandum des Herrn Banino folgte ein Order vom 11. April 2023, in dem das Gericht Herrn LoDuca aufforderte, ein Affidavit einzureichen, dem unter anderem die sechs oben genannten Urteile jeweils in Kopie anzuliegen sind. Sie seien ja alle gerichtlich vorgetragen worden, so könne man diese auch in Kopie einreichen. Und das hat Herr LoDuca auch getan. Mit Affidavit vom 25. April 2023 kam Herr LoDuca diesem Order nach, reichte die sechs von ChatGPT erfundenen Urteile jeweils in Kopie ein und teilte dem Gericht mit, dass die Kopien dieser Urteile leider nicht den ganzen Text dieser Urteile umfassen, sondern lediglich die Auszüge aus diesen Urteilen, die in Internetdatenbanken hinterlegt seien (Ziffer 4 des genannten Affidavits). Hier sind die Auszüge, die Herr LoDuca beim Gericht einreichte:

  1. Varghese v. China Southern Airlines
  2. Shaboon v. Egypt Air
  3. Petersen v. Iran Air
  4. Martinez v. Delta Airlines
  5. Estate of Durden v. KLM Royal Dutch Airlines
  6. Miller v. United Airlines, Inc.

Einiges an diesen »Auszügen« dürfte Zweifeln an der Echtheit dieser Urteile rechtfertigen, vor allem eine Klägerin namens Karen beim Urteil Petersen v. Iran Air. Dieser Name dieser Klägerin allein – der in den USA seit geraumer Zeit für den Typus eines Menschen steht, der immer klagt, immer unangenehm auftritt, immer den Chef sprechen möchte etc. – hätte zur Prüfung der Echtheit dieser Urteile führen müssen. Überhaupt: Nach Einreichung prüfte Herr Banino diese »Auszüge«. Und mit Schreiben vom 26. April 2023 teilte er dem Gericht die Ergebnisse seiner Prüfung mit: Nach wie vor habe er diese Urteile nicht finden können.

Das Gericht war nicht amüsiert. Mit Order to show cause vom 4. Mai 2023 forderte das Gericht Herrn LoDuca auf, bis zum 26. Mai 2023 eine schriftliche Antwort auf den Order einzureichen und um 12:00 Uhr am 8. Juni 2023 vor Gericht persönlich zu erscheinen, um ihm die Gründe zu nennen, die gegen berufsrechtliche Sanktionen (sanctions) sprechen (in den USA können diese direkt vom Gericht verhängt werden). Das oben angeführte Affidavit des Herrn LoDuca vom 24. Mai 2023 ist seine Antwort auf diesen Order, das Affidavit des Herrn Schwartz auch vom 24. Mai 2023 die Anlage zum Affidavit des Herrn LoDuca. Diese haben die Situation aber nicht verbessert. Im Gegenteil: Sie verärgerten das Gericht noch mehr.

Denn in ihren Affidavits gaben Herr LoDuca und Herr Schwartz jeweils zu, dass ChatGPT die sechs Urteile erfunden hat. Und dieses Bekenntnis führt dazu, dass das Affidavit vom 25. April 2023 – dessen Anlagen die »Auszüge« aus diesen Urteilen beinhaltet hätten, das von Herrn LoDuca verfasst und von Herrn Schwartz als notary public notarisiert wurde – eine »falsche und betrügerische Notarisierung« (»false and fraudulent notarization«) aufweise, wie das Gericht in seinem weiteren Order to show cause vom 26. Mai 2023 andeutet. Nun möchte das Gericht am 8. Juni 2023 nicht nur Herrn LoDuca sehen. Es will auch Herrn Schwartz und ihre Anwaltskanzlei sehen. Jetzt haben alle drei die Ehre, dem Gericht die Gründe zu nennen, die gegen berufsrechtliche Sanktionen sprechen.

Diesen Beitrag per E-Mail weiterempfehlenDruckversion

Hinweise zur bestehenden Moderationspraxis
Kommentar schreiben

17 Kommentare

Kommentare als Feed abonnieren

Oje, 

die blinde Übernahme von (plausibel klingenden) Fundstellen mag in der Tat durchgehen. Wahrscheinlich haben viele Juristen schon einmal Urteile aus einem Kommentar unter Zeitdruck übernommen, ohne im Einzelnen zu prüfen, ob die Fundstelle richtig ist (und ob da wirklich drin steht, was drin stehen soll); auch bei mir steht möglicherweise nicht jedes Mal "zitiert nach..." dahinter, wenn ich ja weiß, dass der BGH eine entsprechende Ansicht vertritt und ich nur schnell ein aktuelles Beispiel brauche. Sollte ich wohl noch mal überdenken.

Die Fragen sind wirklich, warum die Suche nach Fakten über einen Sprach-Bot und nicht über eine Datenbank erfolgte (sinnlos, da Tool zur Erzeugung von Texten, nicht zur Recherche) und wie zur Hölle die Kanzlei an die Texte der "Urteile" gekommen sein will (kriminell? doof? kriminell doof?). 

Jedenfalls vielen Dank für die etwas genauere Einordnung des Falls.

Ja, der Fall ist einfach unglaublich.

Hier mal ein kurzes Update: Gestern, nach Veröffentlichung meines obigen Beitrags, wurde einen sogenannten Letter Motion durch die neulich beauftragten Anwälte für Herrn Schwartz und die Anwaltskanzelei eingereicht – unter anderem mit der Bitte um Verlegung der Verhandlung vom 8. Juni auf den 20. Juni oder den 23. Juni. Der Richter hat diesen fast sofort abgelehnt – schriftlich. Ich meine, handschriftlich auf dem Schreiben selbst.

Veilleicht ist dies nicht ganz ungewöhnlich, aber vor dem Hintergrund der öffentlich bekannten Tatsachen kann dies nichts Gutes heißen.

Warten wir mal ein paar Jahre ab. Ich wette, dass sich dann auch in deutschen juristischen Datenbanken von der KI frei erfundene Urteile/Beschlüsse finden. Nachdem ich in irgendeinem alte Pschyrembel die "Steinlaus" von Loriot gesehen habe, hatte ich auch schon mal den Gedanken, die juristische Öffentlichkeit mit einem besusst falschen Zitat "zu prüfen". Es gibt genug Fachzeitschriften mit älteren Jahrgängen, die heute keiner mehr nachlesen würde. Wer würde etwa prüfen, ob nicht Heinzmeier in GA 1958, 428 tatsächlich die Ansicht vertreten hat, dass auch eine umgekippte und sich noch weiterdrehende Mörtelmischmaschine aufgrund der Fortbewegung auf der Seite liegend ein Kraftfahrzeug darstellen soll??? Leider/Glücklicherweise habe ich das nie gemacht. Noch "witziger" wäre es tatsächlich, Urteile zu erfinden und den Datenbanken unterzujubeln. Hatte nicht bereits das Amtsgericht Oer-Erkenschwick mit Beschluss vom 1.4.2022 - 23 F 12/22 im Versorgungsausgleichsrecht festgestellt, dass "....". KI würde das dann noch in schöne Form bringen ;-) 

Einer meiner Lieblingsbegriffe: die Zeitungsente, eine bewusst falsche Meldung in einer Zeitung. Im Englischen ist der Begriff – »canard« – etwas allgemeiner und steht für bewusst falsche Meldungen in einer Zeitung oder Geschichte.

Eine in der Literatur bekannte Zeitungsente stammt aus einem Zeitungsartikel »Die Wirkungen des Bebens im Ostrauer Kohlenrevier«, der am 18. November 1911 von der Neuen Freien Presse veröffentlicht wurde. Ein Herr Dr. Ing. Erich R. v. Winkler, Assistenten der Zentralversuchsanstalt der Ostrau-Karwiner Kohlenbergwerke, »beobachtete« bestimmte Erscheinungen, die Anzeichen eines Erdbebens gewesen seien, und schrieb der Neuen Freuen Presse.

Herr Dr. Winkler ist eine Zeitungsente. Der Zentralversuchsanstalt der Ostrau-Karwiner Kohlenbergwerke ist eine Zeitungsente (den gab es nicht). Aber alles klingt so glaubhaft. Und seine Beobachtungen fangen ruhig, bestimmt und sachlich an. Er sei nachts mit dem Nachtzug nach Wien gefahren. Er sei allein im Kompressorenraum um »genau 10 Uhr 27 Minuten« gewesen. Dann kommt eine hervorragende Zeitungsente:

Völlig unerklärlich ist jedoch die Erscheinung, daß mein im Laboratorium schlafender Grubenhund schon eine halbe Stunde vor Beginn des Bebens auffallende Zeichen größter Unruhe gab.

Karl Kraus hatte einen großen Spaß daraus gemacht.

Man kann den Zeitungsartikel kostenlos bei ANNO lesen. Hier mal ein Link zur entsprechenden Ausgabe der Neuen Freien Presse (Seite 10). Und wenn man möchte, kann man auch den Kommentar von Karl Kraus kostenlos im Internet lesen. Man rufe https://fackel.oeaw.ac.at/ auf und suche nach »Grubenhund«. Der erste Treffer soll der Kommentar sein.

Einer meiner Lieblingsbegriffe: die Zeitungsente, eine bewusst falsche Meldung...

Auch unbewußt falsche (irrtümliche) Zeitungsmeldungen werden im Deutschen als Ente bezeichnet.

0

Es ist ein glücklicher Umstand, dass das hier besprochene "Feature" der ChatGPT-Recherche überhaupt existiert, nämlich dass gelegentlich Fakten und Fundstellen "erfunden" werden. Das ist der Strohhalm, an dem sich nicht nur die juristische Hochschullehre noch klammern kann, wenn es darum geht, ob ChatGPT als verbotenes Hilfsmittel bei der Anfertigung von Haus- und Seminartarbeiten benutzt wurde.

Wer sich für den "Blick unter die Motorhaube" von ChatGPT interessiert: Hier einer der besten mir dazu untergekommenen Artikel, nämlich von Stephen Wolfram, der eine Spezialsuchmaschine betreibt, die ebenfalls KI-Elemente enthält. Artikel vom Februar 2023: What Is ChatGPT Doing … and Why Does It Work?

Hallo Herr Prof. Dr. Müller,

vielen Dank für den Link zum Artikel des Herrn Wolfram. Sehr interessant!

Mit besten Grüßen
Peter Winslow

Danke, lieber Prof. Müller. Ich kann diesen Bericht v. Wolfram auch empfehlen. Er zeigt, dass es nicht einfach ist, KI-Training als "Verarbeitung" iSd Art. 4 DS-GVO zu definieren. Mehr dazu von mir in der MMR Heft 7.

KI: Das EU-Parlament votierte für eine – gegenüber dem Kommissionsentwurf – restriktivere Fassung einer Verordnung, die die Anwendung von Künstlicher Intelligenz (KI) regeln soll. Bei dem sogenannten AI-Act handelt es sich um das weltweit erste Regelwerk zur Regulierung von KI. Kernstück des AI-Acts ist eine Einteilung von KI in Risikoklassen mit entsprechenden Auflagen. Das EU-Parlament will beispielsweise, dass die biometrische Gesichtserkennung einem Richtervorbehalt unterliegt. Eine Klassifizierung von Menschen nach sozialem Verhalten oder ethnischen Merkmalen durch KI soll nicht möglich sein. Außerdem soll darauf geachtet werden, dass KI nicht zur Manipulation im Vorfeld von Wahlen eingesetzt werden kann. Die Wirtschaft warnt indes davor, KI zu stark zu regulieren und dadurch Investitionen abzuschrecken. Der AI-Act wird nun im Trilog-Verfahren zwischen der Kommission, dem EU-Parlament und dem Rat verhandelt. Nach Einigung haben die Unternehmen zwei Jahre Zeit, die neuen Anforderungen umzusetzen. Es berichten FAZ (Hendrik Kafsack)SZ (Jan Diesteldorf), Hbl (Christoph Herwartz)taz (Eric Bonse)Weltspiegel.dezeit.de und netzpolitik.org (Sebastian Meineck).

Hendrik Kafsack (FAZ) kritisiert die vom EU-Parlament eingebrachten Verschärfungen an dem Entwurf des AI-Acts. Sie seien ein "Tritt auf die Bremse, den Europa nicht braucht". Helmut Martin-Jung (SZ) meint, es sei "nicht zu früh, aber auch noch nicht völlig zu spät, die potenziellen Gefahren der KI per Gesetz einzuhegen." Rechts- und Ethikprofessor Philipp Hacker begrüßt auf zeit.de grundsätzlich die Vorschläge des EU-Parlaments, warnt aber vor potenziellen wettbewerbsverzerrenden Folgen, die daraus resultieren könnten, dass größeren Unternehmen die Umsetzung einfacher fallen wird. Zudem müsste die nach Ansicht von Hacker größte Gefahr von KI, die Generierung und Verbreitung von Desinformation, mehr Beachtung finden.

0

“A Manhattan judge on Thursday imposed a $5,000 fine on two lawyers who gave him a legal brief full of made-up cases and citations, all generated by the artificial intelligence program  ChatGPT. The judge, P. Kevin Castel of Federal District Court, criticized the lawyers harshly and ordered them to send a copy of his opinion to each of the real-life judges whose names appeared in the fictitious filing.”

https://www.nytimes.com/2023/06/22/nyregion/lawyers-chatgpt-schwartz-lod...

Ganz herzlichen Dank, Herr Dr. Spies!

Erst heute habe ich davon erfahren und den »Opinion and Order on Sactions« gelesen – leider erstmal nur flüchtig. Ich habe vor, nächste Woche drüber zu schreiben.

USA – Anwalt und ChatGPT: Zwei Rechtsanwälte, die einen Schriftsatz eingereicht hatten, der mehrere von ChatGPT generierte, fiktive Fallzitate enthielt, wurden von einem New Yorker Gericht zu Geldstrafen verurteilt. Die Anwälte hätten in entsprechenden Datenbanken die benannten Urteile selbst überprüfen müssen, so der zuständige Richter, der auch befand, dass sie in böser Absicht gehandelt und "falsche und irreführende Angaben gegenüber dem Gericht gemacht" hätten. Allerdings stellte der Richter auch fest, dass es nicht "an sich unzulässig" sei, wenn Anwälte künstliche Intelligenz "zur Unterstützung" einsetzten. Die anwaltlichen Ethikregeln würden den Juristen allerdings "eine Kontrollfunktion auferlegen, um die Genauigkeit ihrer Einreichungen sicherzustellen". spiegel.de und LTO berichten.

KI und Urheberrecht: Heribert Prantl (Sa-SZ) kritisiert in seiner Kolumne, dass KI-Programme wie ChatGPT sich ohne Einschränkung an urheberrechtlich geschützten Texten bedienen können. Der Autor bezweifelt, ob die gesetzliche Erlaubnis zum "Data-Mining", die längere Zeit vor Erfindung von Chat-GPT erteilt wurde, eine Chat-GPT-Verwertung wirklich umfasst. Eine Enteignung der Urheber sei kein guter Start in die Chat-GPT-Zukunft. 

0

KI: Nun fasst auch zeit.de (Ann-Kathrin Nezik) ausführlich den am letzten Mittwoch im EU-Parlament befürworteten Entwurf einer Verordnung, die die Anwendung von Künstlicher Intelligenz (KI) regeln soll, zusammen. In einem Kommentar begrüßt Jan Diesteldorf (SZ) den Versuch der EU-Gremien, dem Einsatz von KI-Software gesetzgeberische "Leitplanken zu bauen." Einerseits sei es notwendig, "einen nicht zu starren Rahmen" für "Entwickler, Software-Anbieter und Anwender, darunter staatliche Akteure" vorzugeben, andererseits müsse "der absolute Schutz der Grundrechte" gewährleistet werden. Man müsse nicht bis nach China schauen, um der Gefahren umfassender Echtzeit-Überwachung gewahr zu werden. Auch innerhalb der EU gebe es "ein Problem mit der Rechtsstaatlichkeit", wie das Ausspähen etwa von Journalist:innen mit Pegasus-Software belege.

0

Kommentar hinzufügen