EU AI Act: Werden kleinere und mittlere Unternehmen zu stark reguliert? Was sollen Foundation Models tun?
Gespeichert von Dr. Axel Spies am
Der wichtige EU AI Act (im Blog zuletzt hier) befindet sich in den Verhandlungen zwischen den EU Institutionen (Trilogue). Ich höre, dass es doch noch einige strittige Punkte gibt.
Zum Beispiel:
Der Schwerpunkt scheint auf generativer KI (Foundation Models) zu liegen, insbesondere auf Art. 28b des jüngsten Entwurfs des Europäischen Parlaments. Der Terminus „Foundation Model“ ist weit definiert als „an AI system model that is trained on broad data at scale, is designed for generality of output, and can be adapted to a wide range of distinctive tasks;“ (Art. 3 (1) (1c) des Entwurfs.
In seiner jetzigen Form würde Art. 28b würde alle Verpflichtungen symmetrisch auf alle Anbieter von Foundation-Modellen anwenden, sowohl auf große als auch auf kleine Anbieter. Er würde neben einer erforderlichen Registrierung u.a. folgendes vorschreiben:
- Umfassende Risikoermittlung: Artikel 28 b(2a) würde es zur Pflicht machen, alle vernünftigerweise vorhersehbare Risiken, in diesem Fall Ungenauigkeit und Diskriminierung, mit Unterstützung unabhängiger Experten zu identifizieren und zu mindern.
- Gründliche Tests: Da das Foundation Model als Baustein für viele nachgelagerte KI-Systeme fungiert, soll Artikel 28 b(2c) garantieren, dass es gewisse Mindeststandards erfüllt: Genannt sind: " appropriate levels of performance, predictability, interpretability, corrigibility, safety and cybersecurity assessed through appropriate methods such as model evaluation..."
- Vollständige Dokumentation: Die Anbieter müssen eine umfangreiche Dokumentation in Form von Datenblättern, Musterkarten und verständlichen Gebrauchsanweisungen erstellen, wie in Artikel 28 b(2e) vorgesehen ist, und müssen eine Grundrechtsfolgenabschätzung durchführen (Artikel 29a).
Diese Anforderungen werden erhebliche Herausforderungen für Foundation Models entlang der gesamten KI-Wertschöpfungskette nach sich ziehen. So müssen die genannten Prüfungen und Dokumentationen jeden europäischen nachgelagerten Diensteanbieter in die Lage versetzen, alle eigenen Verpflichtungen aus Artikel 16 des Entwurfs zu erfüllen, sobald er ein Foundation Model in sein „high risk“ KI-System integriert und auf den Markt bringt.
Außerdem stellt der Anwendungsbereich von Artikel 28b einige weitere Problem für die Verhandlungsführer. Es gibt verschiedene Lobbying-Bemühungen, um den Anwendungsbereich einzuschränken. Ein Vorschlag ist die Lösung, wie sie in Artikel 33(4) des Digital Services Act EU 2022/2065 festgelegt ist. Diese Bestimmung ermächtigt die Europäische Kommission, einen eigenen Beschluss zu erlassen, mit der sehr große Online-Plattformen (VLOPs) und sehr große Online-Suchmaschinen (VLOSEs) anhand bestimmter Kriterien aufgelistet werden. Die Verhandlungsführer zum AI Act könnten einen ähnlichen Ansatz verfolgen, um die relevanten Foundation Models im AI-Act zu definieren und damit den Anwendungsbereich von Art. 28b. Die Einführung des Begriffs "systemisch" würde dazu beitragen, dass nur die systemisch relevanten Foundation Models in den Anwendungsbereich von Art. 28b fallen. Dementsprechend könnte die EU-Kommission Foundation Models von der geplanten Liste streichen, sobald sie ihren Status als „systemisch“ aufgrund von anderen Anbietern verloren haben.
Was halten Sie von dieser Diskussion und haben Sie weitere Informationen?