Kommt bald das Zwangslabel „dieser Text wurde mit ChatGPT erstellt“ oder ein KI-Wasserzeichen?

von Dr. Axel Spies, veröffentlicht am 07.02.2023

O Privacy, Privacy, how doth thy presence grace/ Our modern world, with thy solemn embrace!“, dichtete der ChatGPT-Shakespeare kürzlich hier im Blog. Und erinnern Sie sich noch daran, wie Franziska Giffey vermeintlich mit Vladimir Klitschko telefonierte? Anschließend wurde gemutmaßt, dass statt Klitschko (Bürgermeister von Kiew) ein KI-System zum Einsatz kam - als „Deep Fake“. ChatGPT zeigt eindrucksvoll, wie KI-Systeme z.B. als virtueller Shakespeare Texte generieren können, die wie von Menschenhand geschrieben wirken oder als Telefonteilnehmer (z.b. bei Kundenbeschwerden) auftreten können.

Wann und wie muss der Einsatz eines solchen Systems gekennzeichnet werden?

  • Der EU-Kommissionsentwurf des AI Act v. April 2021mit seinen Transparenzvorschriften für KI-Systeme, die zum Erzeugen oder Manipulieren von Bild-, Ton- oder Videoinhalten verwendet werden, geht in die Richtung. Art. 52 des Vorschlags sieht vor, dass KI-Systeme, die für die Interaktion mit natürlichen Personen bestimmt sind, schon so entwickelt und konzipiert werden müssen, dass für die natürliche Person entweder offensichtlich ist, dass sie mit einem solchen System interagieren, oder das dies für sie offensichtlich ist. Bei Verwendung eines KI-Systems zur Emotionserkennung oder biometrischen Kategorisierung soll die betroffene Person künftig darüber informiert werden müssen. Bei einem „KI-System, das Bild-, Ton- oder Videoinhalte erzeugt oder manipuliert, die wirklichen Personen, Gegenständen, Orten oder anderen Einrichtungen oder Ereignissen merklich ähneln und einer Person fälschlicherweise als echt oder wahrhaftig erscheinen würden“ soll offengelegt werden müssen, dass die Inhalte künstlich erzeugt oder manipuliert wurden. Wie die Offenlegung zu erfolgen hat, wird jedoch nicht näher dort ausgeführt.
  • Solche Gedanken wurden sich in China, zweite Haupt-KI-Schmiede (mit den USA), bereits gemacht. Die chinesische Cyberspace Administration hat gemeinsam mit dem Ministerium für Industrie und Informationstechnologie sowie dem Ministerium für öffentliche Sicherheit Ende 2022 Bestimmungen herausgegeben, dass Dienste, die Informationsinhalte erzeugen oder erheblich verändern (zB intelligente Dialoge, synthetische menschliche Stimmen, Gesichtserzeugung, realistische Videos), gut sichtbar durch ein Wasserzeichen gekennzeichnet werden.

Zurück nach Europa: Der Vorschlag der EU-Kommission befasst sich nicht mit der Erzeugung von Texten durch KI-Systeme. Daher bleibt die Frage, ob für diese Erzeugnisse noch ein eigenes Regelungswerk geschaffen werden  oder ob evtl. die Transparenzpflichten im AI Act ausgeweitet werden sollten.

Bevor man wieder nach "Brüssel" ruft: Mittlerweile machen sich auch die Entwickler von KI-Systemen selbst Gedanken darüber, wie KI-generierte Texte gekennzeichnet werden können – denn neben dem Problem, dass zB das Bildungssystem mit ChatGPT zu kämpfen hat (s im Beck-Blog hier), könnte es auch passieren, dass KI-Systeme künftig mit Daten trainiert werden, die wiederum selbst von KI-Systemen generiert wurden und sich damit bestehende Fehler vertiefen.

Es wird daher nicht nur in China darüber nachgedacht, KI-Texte auf Server-Ebene mit einem technischen Wasserzeichen zu versehen, das über einen bestimmten Schlüssel dann erkannt werden kann. Möglich wäre es auch, im Text bestimmte Muster an Wörtern, Satzzeichen oä unterzubringen, die diesen für eine andere KI als maschinengeneriert kennzeichnen. Um Christoph Johannisbauer im neuesten MMR-Newsdienst zu zitieren: „Mit „GPTZero“ [wurde] bereits eine erste Anwendung entwickelt, die schnell ausmachen können soll, ob ein Text von einer KI oder einem Menschen stammt.“ Damit wären „Wasserzeichen“ vielleicht nicht mehr notwendig.

Was halten Sie von solchen Wasserzeichen? Allgemein: sehen Sie den regulatorischen Bedarf einer Transparenzpflicht auch für Texterzeugnisse von KI-Systemen?

Diesen Beitrag per E-Mail weiterempfehlenDruckversion

Hinweise zur bestehenden Moderationspraxis
Kommentar schreiben

5 Kommentare

Kommentare als Feed abonnieren

Ist ja geradezu ein Treppenwitz, dass sich gerade China KI-Wasserzeichen einfordert. Wasserzeichen bringen nichts, wenn sie umgangen werden können. Was ist, wenn der Nutzer den KI-Text modifiziert?  Ein Anwalt muss ja auch nicht offenlegen, dass seine gestylte GmbH-Satzung zumindest als Entwurf aus dem "Kochbuch" (z.B. einem Beck-Vertragshandbuch) stammt.

0

Das Wasserzeichen hat eigentlich eine ganz andere Funktion, nämlich Feedback-Schleifen beim machine learning zu vermeiden, damit nicht neue Modell-Varianten auf dem alten Output trainiert werden. Das würde sonst zu statistischen Verzerrungen gegenüber menschlicher Sprache und damit einem Abfall der Qualität der neuen Modelle führen.

Kurzes Update: "Das U.S. Copyright Office hat nun klargestellt: Künstler können Bildgeneratoren nutzen, um neue Werke zu schaffen. Wenn sie sich dafür aber als Urheber registrieren lassen wollen, müssen sie selbst nochmals Hand anlegen."

Quelle: https://www.spiegel.de/netzwelt/netzpolitik/ki-kunst-keine-urheberrechte...

Wie sehen Sie das? 

Die neuesten Nachrichten:

"In an effort to help prevent the spread of misinformation, Google on Tuesday unveiled an invisible, permanent watermark on images that will identify them as computer-generated.

The technology, called SynthID, embeds the watermark directly into images created by Imagen, one of Google’s latest text-to-image generators. The AI-generated label remains regardless of modifications like added filters or altered colors."

Quelle:https://edition.cnn.com/2023/08/30/tech/google-ai-images-watermark/index...

Kommentar hinzufügen