EU AI Act: Werden kleinere und mittlere Unternehmen zu stark reguliert? Was sollen Foundation Models tun?

von Dr. Axel Spies, veröffentlicht am 03.08.2023

Der wichtige EU AI Act (im Blog zuletzt hier) befindet sich in den Verhandlungen zwischen den EU Institutionen (Trilogue). Ich höre, dass es doch noch einige strittige Punkte gibt.

Zum Beispiel:

Der Schwerpunkt scheint auf generativer KI (Foundation Models) zu liegen, insbesondere auf Art. 28b des jüngsten Entwurfs des Europäischen Parlaments.  Der Terminus „Foundation Model“ ist weit definiert als  „an AI system model that is trained on broad data at scale, is designed for generality of output, and can be adapted to a wide range of distinctive tasks;“ (Art. 3 (1) (1c) des Entwurfs.

In seiner jetzigen Form würde Art. 28b würde alle Verpflichtungen symmetrisch auf alle Anbieter von Foundation-Modellen anwenden, sowohl auf große als auch auf kleine Anbieter. Er würde neben einer erforderlichen Registrierung u.a. folgendes vorschreiben:

- Umfassende Risikoermittlung: Artikel 28 b(2a) würde es zur Pflicht machen, alle vernünftigerweise vorhersehbare Risiken, in diesem Fall Ungenauigkeit und Diskriminierung, mit Unterstützung unabhängiger Experten zu identifizieren und zu mindern.

- Gründliche Tests: Da das Foundation Model als Baustein für viele nachgelagerte KI-Systeme fungiert, soll Artikel 28 b(2c) garantieren, dass es gewisse Mindeststandards erfüllt: Genannt sind: " appropriate levels of performance, predictability, interpretability, corrigibility, safety and cybersecurity assessed through appropriate methods such as model evaluation..."

- Vollständige Dokumentation: Die Anbieter müssen eine umfangreiche Dokumentation in Form von Datenblättern, Musterkarten und verständlichen Gebrauchsanweisungen erstellen, wie in Artikel 28 b(2e) vorgesehen ist, und müssen eine Grundrechtsfolgenabschätzung durchführen (Artikel 29a).

Diese Anforderungen werden erhebliche Herausforderungen für Foundation Models entlang der gesamten KI-Wertschöpfungskette nach sich ziehen. So müssen die genannten Prüfungen und Dokumentationen jeden europäischen nachgelagerten Diensteanbieter in die Lage versetzen, alle eigenen Verpflichtungen aus Artikel 16 des Entwurfs zu erfüllen, sobald er ein Foundation Model in sein „high risk“ KI-System integriert und auf den Markt bringt.

Außerdem stellt der Anwendungsbereich von Artikel 28b einige weitere Problem für die Verhandlungsführer. Es gibt verschiedene Lobbying-Bemühungen, um den Anwendungsbereich einzuschränken. Ein Vorschlag ist die Lösung, wie sie in Artikel 33(4) des Digital Services Act EU 2022/2065 festgelegt ist. Diese Bestimmung ermächtigt die Europäische Kommission, einen eigenen Beschluss zu erlassen, mit der sehr große Online-Plattformen (VLOPs) und sehr große Online-Suchmaschinen (VLOSEs) anhand bestimmter Kriterien aufgelistet werden. Die Verhandlungsführer zum AI Act könnten einen ähnlichen Ansatz verfolgen, um die relevanten Foundation Models im AI-Act zu definieren und damit den Anwendungsbereich von Art. 28b. Die Einführung des Begriffs "systemisch" würde dazu beitragen, dass nur die systemisch relevanten Foundation Models in den Anwendungsbereich von Art. 28b fallen. Dementsprechend könnte die EU-Kommission Foundation Models von der geplanten Liste streichen, sobald sie ihren Status als „systemisch“ aufgrund von anderen Anbietern verloren haben.

Was halten Sie von dieser Diskussion und haben Sie weitere Informationen?

Diesen Beitrag per E-Mail weiterempfehlenDruckversion

Hinweise zur bestehenden Moderationspraxis
Kommentar schreiben

3 Kommentare

Kommentare als Feed abonnieren

Es wird auch darüber diskutiert, ob und wie die EU die Ergebnisse der Konformitätsbewertung durch kompetente Dritte im Ausland anerkennen wird. Gemäß Artikel 39 des Entwurfs des Europäischen Parlaments zum KI-Act muss die EU ein "Abkommen" mit einem anderen Land schließen, damit dessen Prüfeinrichtungen "ermächtigt werden können", Konformitätsbewertungen durchzuführen, die die EU dann akzeptiert - wahrscheinlich durch Abkommen über die gegenseitige Anerkennung mit wichtigen Handelspartnern. Das kann dauern!

0

Lesenswert Der Beitrag zum Verhältnis AI Act und GDPR:

Wolff/Lehr/Yoo: Lessons from GDPR for AI Policymaking

Z.B. "Moreover, the shift in the AI Act’s scope to encompass more general AI has the potential to raise even more significant GDPR-related concerns because so much of the focus of GDPR requirements is on establishing a purpose for the collection of data and notifying users of that purpose at the time of collection as well as minimizing collected data. This emphasis on identifying the purpose of collected data prior to its collection and data minimization raised concerns about GDPR’s impacts on AI long before the release of the draft AI Act..."

"Moreover, the rights-based approach reflected in GDPR regulates data as an input into processing, whereas the risk-based approach reflected in the proposed AI Act focuses on the uses of the products of AI as outputs. "

Quelle: https://media.licdn.com/dms/document/media/D561FAQE5dzDaVwnrnA/feedshare...

Schon richtig, was die Autoren ausführen: Für das KI-Gesetz besteht das zentrale Problem der General Purpose AI darin, dass es nahezu unmöglich ist, die mit ihr verbundenen Risiken sinnvoll zu bewerten. Für die DSGVO besteht das Hauptproblem darin, dass es nahezu unmöglich ist, eine sinnvolle Zweckbindung (oder Datenminimierung) für Daten vorzunehmen, die zum Training allgemeiner KI-Systeme verwendet werden. 

0

Kommentar hinzufügen