USA: Kalifornien pirscht vor bei der KI-Regulierung - auch im Staat NY gibt es Neuigkeiten

von Dr. Axel Spies, veröffentlicht am 19.04.2023

Ein neuer Gesetzesentwurf über künstliche Intelligenz = KI (AB 331) wird gerade in Kalifornien auf  Ausschussebene beraten. AB 331 betrifft Unternehmen („Anwender“) mit 25 oder mehr Mitarbeitern bzw. KI -Anwendungen mit Auswirkungen auf mindestens 1.000 Personen pro Jahr (Schwelle wird noch diskutiert).

Vorgesehen sind u.a. folgende Maßnahmen (derzeitige Liste):

  • Verpflichtung zur Jährliche Folgenabschätzung ab dem 1.1.25, die Angaben darüber enthalten muss, wie ein automatisiertes Entscheidungsinstrument verwendet wird, welche Daten erhoben werden, welchen Zweck es verfolgt, welche Sicherheitsvorkehrungen getroffen werden, welche potenziellen nachteiligen Auswirkungen sich ergeben können, wie das Instrument von den Menschen genutzt werden kann und anderes.
  • Interne Risikominimierung: Implementierung eines Governance-Programms mit angemessenen administrativen und technischen Sicherheitsvorkehrungen - insb. zur Vermeidung von algorithmischer Diskriminierung (näher definiert).
  • Offenlegung: Jeweils eine öffentlich zugängliche Richtlinie, in der z.B. aufgeführt sein muss, wie das Unternehmen das Risiko einer illegalen Diskriminierung handhabt.
  • Opt out: Wenn eine "Folge"-Entscheidung ausschließlich auf der Grundlage von KI getroffen wird, hat eine betroffene Person das Recht, sich dagegen zu entscheiden, wenn dies "technisch machbar" ist.
  • Verbotene Nutzung der KI per Gesetz für jedwede Anwendung, die zu algorithmischer Diskriminierung beiträgt.
  • Sanktionen: Strafen bis $10.000 pro Fall und getrennt davon Privatklagemöglichkeit.

Auch hier im US-Kongress wird das Thema KI-Regulierung diskutiert (Vorschlag von Sen. Schumer), die Bemühungen sind aber noch nicht so weit gediehen wie in Kalifornien.

Bestrebungen wie Italien, ChatGPT &Co. gleich ganz zu verbieten (im Blog hier) gibt es in Kalifornien derzeit nicht.

Was halten Sie von diesem auf Diskriminierungen fokussierten Ansatz?

 

Diesen Beitrag per E-Mail weiterempfehlenDruckversion

Hinweise zur bestehenden Moderationspraxis
Kommentar schreiben

9 Kommentare

Kommentare als Feed abonnieren

Das ist doch alles Flickwerk. Wie kann man z.B. eine Folgeabschätzung verlangen, wenn nicht genau feststeht wie die KI funktioniert (Black Box Problem)? Und interessant, dass der Datenschutz im sonnigen Kalifornien nicht der Aufhänger ist

0

Es gibt noch mehr hier: Ein neues Gesetz über KI im Bundesstaat New York verbietet es Arbeitgebern, automatisierte Entscheidungshilfen für die Beschäftigung (AEDTs) zu verwenden, um Bewerber und Angestellte innerhalb der Stadt New York zu überprüfen, sofern nicht bestimmte Anforderungen an die Prüfung von Befangenheit und die Benachrichtigung erfüllt sind.

Nach einer längeren Ankündigungs- und Kommentierungsfrist mit zwei Runden von Regelungsvorschlägen, die im September 2022 und Dezember 2022 veröffentlicht wurden, gab es am 6. April 2023 die endgültige Regelung (Final Rule), die weitere Leitlinien zum AI-Gesetz enthält und ein neues Datum festlegt, an dem die Durchsetzungsmaßnahmen starten.

 

Lesenswert zu den Unterschieden in der EU und den USA: Neue Studie der Brookings Institution hier in Washington:

"The EU and U.S. strategies share a conceptual alignment on a risk-based approach, agree on key principles of trustworthy AI, and endorse an important role for international standards. However, the specifics of these AI risk management regimes have more differences than similarities. Regarding many specific AI applications, especially those related to socioeconomic processes and online platforms, the EU and U.S. are on a path to significant misalignment."

Quelle: https://www.brookings.edu/research/the-eu-and-us-diverge-on-ai-regulatio...

KI und manipulierte Beweise vor Gericht: Mit Künstlicher Intelligenz lassen sich Bilder und Töne herstellen, die für menschliche Augen und Ohren täuschend echt wirken. Welche Auswirkungen die damit verbundene schwindende Beweiskraft von Bildern und Tonaufnahmen bei Gerichtsverfahren haben könnte, untersucht Felix W. Zimmermann (LTO). Er prophezeit einen Mehraufwand für die Gerichte. Angesichts fortschreitender Digitalisierung in der Gesellschaft würden auch die digitalen Beweismittel immer wichtiger, gleichzeitig nähmen die Möglichkeiten zu, diese zu manipulieren. Die Justiz müsse daher auch in diesem Bereich aufrüsten.

KI und Anwaltschaft: Auf LTO befassen sich die Rechtsanwält:innen Stephan Bücker, Nadine Lilienthal und Christian Herles mit der Frage, ob ChatGPT eines Tages Richter:innen oder Anwält:innen ersetzen könnte. Sie kommen zu dem Ergebnis, dass KI zu einer Disruption in der Anwaltschaft führen werde, die aber weniger Verdrängung, als vielmehr Veränderung bedeute. Als Hilfsmittel werde KI die anwaltliche Praxis ergänzen und prägen, Juristinnen und Juristen müssten ihre Fähigkeiten und Kompetenzen stärken, die sie über KI als Subsumtionsautomat stellten.

0

Falschbehauptungen durch KI: Der Akademische Rat a.Z. Alexander Heinze setzt sich auf LTO mit der Frage auseinander, wer verantwortlich ist, wenn ChatGPT Falschinformationen liefert bzw. ob und wann eine mittels Künstlicher Intelligenz erzeugte Aussage den Tatbestand der üblen Nachrede erfüllen könnte. Dabei kommt er zu dem Schluss, dass Rechtsverletzungen durch Chatbots nur präventiv zu begegnen ist, nämlich durch Kontrolle und Kontrollpflichten.

0

KI: Im EU-Parlament haben die beiden zuständigen Ausschüsse für Binnenmarkt und Inneres mit großer Mehrheit eine gemeinsame Position zur geplanten Verordnung zur Regulierung von künstlicher Intelligenz (AI-Act) beschlossen. Die Position umfasst einige umstrittene Änderungen am Verordnungsentwurf der EU-Kommission, worüber voraussichtlich Mitte Juni im Plenum abgestimmt wird. Bei der besonders umstrittenen Nutzung biometrischer Daten, die etwa zur Gesichtserkennung genutzt werden können, soll bei Personen der Abgleich durch KI bis auf wenige Ausnahmen verboten werden. Zu dem im Entwurf vorgesehenen risikobasierten Ansatz, wonach die Entwickler:innen von KI umso mehr Auflagen beachten müssen je riskanter die Anwendung ist, sagt die gemeinsame Position, dass darauf geachtet werden müsse, nicht jede KI automatisch als hochriskant einzustufen. Vielmehr solle geprüft werden, ob ein "signifikantes Risiko" besteht. Als potentielles Risiko gilt etwa eine strukturelle Vertiefung von Rassismus und Sexismus. Das Hbl (Carsten Volkery/Christof Kerkmann u.a.) berichtet.

KI und Urheberrecht: Der Rechtsanwalt Jan Bernd Nordemann schreibt auf LTO über die Defizite des Urheberrechts in Bezug auf KI-generierte Inhalte von ChatGPT und anderen Anbieter:innen und erläutert, wie Kreative und Verwerter:innen ihre KI-Erzeugnisse absichern können. Zudem geht er darauf ein, wie umgekehrt auch Werke vor KI geschützt werden können.

0

"Die Möglichkeit, OpenAI auch bei fehlender Voraussehbarkeit der Ehrverletzung zur Verantwortung zu ziehen, erkauften wir uns dann zum Preis der rechtsstaatlichen Bedenklichkeit. Rechtsverletzungen durch Chatbots lassen sich aber nur präventiv begegnen: über Kontrolle und Kontrollpflichten."

Der Akademische Rat sollte sich besser informieren, wie generative KI funktioniert und wie sie Antworten generiert. "Kontrollpflichten" sind akademische Luftschlösser...

0

Kommentar hinzufügen