ChatGPT – Nutzungen durch Anwälte: gefährliche rechtliche Klippen sind zu umschiffen

von Dr. Axel Spies, veröffentlicht am 17.02.2023
Rechtsgebiete: Bürgerliches RechtWirtschaftsrecht8|2700 Aufrufe

Marie-Luise Schlicker stellt in einem lesenswerten Artikel einige deutsche Normen in den Raum, die Anwälte zu beachten haben, wenn sie ChatGPT oder ein ähnliches KI-Werkzeug einsetzen. Hier ein Auszug aus dem Artikel:

  • § 43 BRAO (Allgemeine Berufspflicht): Bei einer ChatGPT-Schnittstelle auf der eigenen Homepage sei ein „ausdrücklicher Disclaimer, der erkennen lässt, dass ChatGPT keinen Rechtsrat erteilt, der auf die Kanzlei zurückgeht“ erforderlich.
  • § 43a Abs. 2 BRAO (Verschwiegenheitspflicht): Den Name des Mandanten oder des Gegners dürfe man nicht in das System eingeben, das sei schon eine unzulässige Offenlegung gegenüber Dritten.
  • § 2 Abs. 1 Rechtsdienstleistungsgesetz (RDG): „ChatGPT [ist] keine erlaubnispflichtige Rechtsdienstleistung“ – das werde aber sicherlich noch sehr streitig.
  • Urheberrecht: Wenn bekannt würde, dass ChatGPT auch urheberrechtlich geschützte Daten enthält, müsste man aufpassen, dass man bei einer Urheberrechtsverletzung nicht durch die eigene Nutzung selbst zum Teilnehmer einer Urheberrechtsverletzung oder zumindest zum Störer wird.
  • § 18 Einkommensteuergesetz: „Besteht die anwaltliche Tätigkeit am Ende nur noch in Programmierung und Verkauf digitaler Produkte, kann man das Privileg des freien Berufs verlieren.”

Man könnte noch ergänzen: DSGVO-Verletzung durch Eintragung von personenbezogenen Daten in die Anweisungen an ChatGPT ... u.a.

Und eine praktische Folge für Anwälte - niedergelassene Ärzte kennen das Thema: ihre Mandanten könnten eine  „Diagnose“ ihres Rechtsproblems schon einmal über ChatGPT ermitteln lassen. Anschließend müssen die Anwälte dann viel Zeit auf die Erklärung verwendet werden, warum man etwas anderes vorschlägt.

Was meinen Sie: Welche rechtlichen Grenzen gibt es für Anwälte?

Diesen Beitrag per E-Mail weiterempfehlenDruckversion

Hinweise zur bestehenden Moderationspraxis
Kommentar schreiben

8 Kommentare

Kommentare als Feed abonnieren

Das meint ChatGPT selbst zu dem Thema: 

"Als KI-Chatbot kann ich keine Rechtsberatung geben, aber ich kann Ihnen allgemeine Informationen zur Verfügung stellen.

Grundsätzlich können deutsche Rechtsanwälte ChatGPT nutzen, um Informationen zu recherchieren und Antworten auf rechtliche Fragen zu erhalten. Es gibt jedoch bestimmte rechtliche Grenzen, die beachtet werden müssen.

Erstens muss jeder Rechtsanwalt die Berufsregeln und Ethikvorschriften einhalten, die von der zuständigen Rechtsanwaltskammer festgelegt wurden. Rechtsanwälte müssen sicherstellen, dass sie bei der Verwendung von ChatGPT oder anderen ähnlichen Tools keine Vertraulichkeits- oder Geheimhaltungspflichten verletzen und keine unzulässige Werbung machen.

Zweitens müssen Rechtsanwälte sicherstellen, dass die von ChatGPT bereitgestellten Informationen korrekt und aktuell sind. Rechtsanwälte können sich nicht allein auf ChatGPT verlassen, um rechtliche Fragen zu beantworten, sondern müssen ihre Recherchen sorgfältig prüfen und zusätzliche Informationen sammeln, um eine vollständige und zuverlässige Antwort zu erhalten.

Schließlich sollten Rechtsanwälte sicherstellen, dass die von ChatGPT bereitgestellten Antworten nicht automatisch als Rechtsberatung ausgelegt werden. Rechtsanwälte müssen in der Lage sein, die Antworten von ChatGPT kritisch zu bewerten und ihre eigenen professionellen Fähigkeiten und Erfahrungen in die Beantwortung von rechtlichen Fragen einbringen."

0

Zum Thema jetzt auch Prof. Rolf Schwartmann, Vorsitzender bei Gesellschaft für Datenschutz und Datensicherheit (GDD) e.V. in der FAZ:

"Beim Einsatz von KI-Systemen sind hier insbesondere der Transparenzgrundsatz, der Zweckbindungsgrundsatz, die kompatible Weiterverarbeitung sowie der technische Datenschutz relevant. Nach der DSGVO, die auch künftig zusätzlich zur KI-Verordnung gelten soll, gilt für die Verarbeitung von personenbezogenen Daten ein grundsätzliches Verbot mit Erlaubnisvorbehalt – auch wenn KI im Einsatz ist ... Die neue Technik birgt enorme Möglichkeiten im Dienst der Menschheit, und wir wollen und können sie so wenig aufhalten wie die Dampfmaschine. "

Wie heißt es so schön in der Kommentarsektion zu dem FAZ-Artikel: "Sollen die doch noch mehr philosophieren und reglementieren und den abgefahrenen Zug noch weiter entkommen lassen. Die Welt dreht sich halt weiter, ob mit oder ohne DSGVO, viel Spaß im Mittelalter." -- Da ist was dran.

0
Prof: Glauner auf Heise.de: "Es droht das Aus für ChatGPT in der EU"

Zitat: "Allerdings gibt es für die insgesamt nur unscharf abgegrenzten und vage beschriebenen Hochrisiko-Anwendungen eine Vielzahl an Auflagen, wie die Qualität der Trainingsdaten, Qualitätsberichte und Konformitätsbewertungen. Diese Anforderungen sind entweder sehr teuer oder aus technischer Sicht teilweise unerfüllbar. Dies führt schlussendlich dann doch effektiv zu einem Verbot von vielen Hochrisiko-Anwendungen. "

Siehen Sie das auch so?

Ob ChatGPT eine Hochrisikotechnologie ist, kann man mit guten Gründen bezweifeln. Dafür gibt es u.a. Sandboxes.  Da die Mitgliedsstaaten den KI Act umsetzen, was Jahre dauert, ist es viel zu früh für eine reisserische Ansage wie die in Heise.de. 

0

Da stimme ich zu! Nach dem Vorschlag der EU Kommission für eine KI-Verordnung handelt es sich nur bei Anwendung in den folgenden Bereichen um eine KI-Hochrisikotechnologie:

  * kritische Infrastrukturen (z. B. Verkehr), die das Leben und die Gesundheit der Bürger gefährden könnten;

  * Bildungs- oder Berufsausbildung, die den Zugang zu Bildung und beruflichem Verlauf des Lebens einer Person bestimmen kann (z. B. Bewertung von Prüfungen);

  * Sicherheitskomponenten von Produkten (z. B. KI-Anwendung in der robotergestützten Chirurgie);

  * Beschäftigung, Management von Arbeitnehmern und Zugang zu selbständiger Erwerbstätigkeit (z. B. Software zur Auswahl von Lebensläufen für Einstellungsverfahren);

  * wesentliche private und öffentliche Dienstleistungen (z. B. Kreditbewertung, die den Bürgern die Möglichkeit verwehrt, ein Darlehen zu erhalten);

  * Strafverfolgung, die in die Grundrechte der Menschen eingreifen könnte(z. B. Bewertung der Zuverlässigkeit von Beweismitteln);

  * Migrations-, Asyl- und Grenzkontrollmanagement (z. B. Überprüfung der Echtheit von Reisedokumenten);

  * Rechtspflege und demokratische Prozesse (z. B. Anwendung des Gesetzes auf konkrete Fakten).

ChatGPT wird und soll in diesen Bereichen nicht angewendet werden. Es ist auch nicht bekannt, dass geplant wird, in diesen Bereichen KI-Anwendungen einzusetzen. Der Überschrift kann somit widersprochen werden.

 

0

Die Financial Times berichtete kürzlich (€ - Abo notwendig), dass die Magic Circle Kanzlei Allen & Overy ihren Anwälten einen Chatbot zur Verfügung stellt, nachdem ein seit November 2022 stattfindender Probeeinsatz erfolgreich abgeschlossen wurde. Der unter dem Namen "Harvey" laufende Chatbot soll Anwälten dabei helfen, Verträge zu entwerfen. Der Chatbot wurde von einem gleichnamigen Startup entwickelt, das maßgeblich von OpenAI (dem Unternehmen hinter ChatGPT) finanziert wird. Dem Chtabot liegt ebenfalls die GPT Technik zugrunde.

0

Kommentar hinzufügen