ChatGPT – Nutzungen durch Anwälte: gefährliche rechtliche Klippen sind zu umschiffen
Gespeichert von Dr. Axel Spies am
Marie-Luise Schlicker stellt in einem lesenswerten Artikel einige deutsche Normen in den Raum, die Anwälte zu beachten haben, wenn sie ChatGPT oder ein ähnliches KI-Werkzeug einsetzen. Hier ein Auszug aus dem Artikel:
- § 43 BRAO (Allgemeine Berufspflicht): Bei einer ChatGPT-Schnittstelle auf der eigenen Homepage sei ein „ausdrücklicher Disclaimer, der erkennen lässt, dass ChatGPT keinen Rechtsrat erteilt, der auf die Kanzlei zurückgeht“ erforderlich.
- § 43a Abs. 2 BRAO (Verschwiegenheitspflicht): Den Name des Mandanten oder des Gegners dürfe man nicht in das System eingeben, das sei schon eine unzulässige Offenlegung gegenüber Dritten.
- § 2 Abs. 1 Rechtsdienstleistungsgesetz (RDG): „ChatGPT [ist] keine erlaubnispflichtige Rechtsdienstleistung“ – das werde aber sicherlich noch sehr streitig.
- Urheberrecht: Wenn bekannt würde, dass ChatGPT auch urheberrechtlich geschützte Daten enthält, müsste man aufpassen, dass man bei einer Urheberrechtsverletzung nicht durch die eigene Nutzung selbst zum Teilnehmer einer Urheberrechtsverletzung oder zumindest zum Störer wird.
- § 18 Einkommensteuergesetz: „Besteht die anwaltliche Tätigkeit am Ende nur noch in Programmierung und Verkauf digitaler Produkte, kann man das Privileg des freien Berufs verlieren.”
Man könnte noch ergänzen: DSGVO-Verletzung durch Eintragung von personenbezogenen Daten in die Anweisungen an ChatGPT ... u.a.
Und eine praktische Folge für Anwälte - niedergelassene Ärzte kennen das Thema: ihre Mandanten könnten eine „Diagnose“ ihres Rechtsproblems schon einmal über ChatGPT ermitteln lassen. Anschließend müssen die Anwälte dann viel Zeit auf die Erklärung verwendet werden, warum man etwas anderes vorschlägt.
Was meinen Sie: Welche rechtlichen Grenzen gibt es für Anwälte?