Stehen ChatGPT&Co nach der neuen KI-Verordnung (AI Act) vor unlösbaren Aufgaben?

von Dr. Axel Spies, veröffentlicht am 12.05.2023

Im nach langen Mühen erzielten Kompromiss zur KI-Verordnung, den die Ausschüsse im EU Parlament gestern abgesegnet haben, findet man eine interessante Vorschrift für so genannte Foundation Models. Auch ChatGPT beruht auf einem Foundation Model als Rückgrat (GPT, GPT-2, GPT-3, GPT-3.5, GPT-4...). Auf den Punkt gebracht sind Foundation-Modelle KI-Modelle, die auf großen Mengen von Datensätze trainiert wurden und zur Lösung unterschiedlicher, nicht vorher bekannter nachgelagerter Aufgaben verwendet werden können.

Erwägung 60e erklärt hierzu (übersetzt):

„Foundation Models sind eine neuere Entwicklung, bei der KI-Modelle auf der Grundlage von Algorithmen entwickelt werden, die im Hinblick auf Allgemeinheit und Vielseitigkeit der Ergebnisse optimiert wurden. Diese Modelle werden häufig auf einem breiten Spektrum von Datenquellen und großen Datenmengen trainiert, um ein breites Spektrum nachgelagerter Aufgaben zu erfüllen, darunter auch solche, für die sie nicht speziell entwickelt und trainiert wurden. Diese Systeme können unimodal oder multimodal sein und durch verschiedene Methoden wie überwachtes Lernen oder verstärktes Lernen trainiert werden. KI-Systeme mit spezifischem Verwendungszweck oder KI-Systeme für allgemeine Zwecke können eine Implementierung eines Foundation Models sein, was bedeutet, dass jedes Foundation Model in zahllosen nachgelagerten KI-Systemen oder KI-Systemen für allgemeine Zwecke wiederverwendet werden kann. Diese Modelle sind für viele nachgelagerte Anwendungen und Systeme von wachsender Bedeutung.“

Nach Art. 28b Abs. 2 (a) des Kompromisses muss jeder Anbieter eines Foundation Models in Zukunft „durch geeignete Planung, Prüfung und Analyse nachweisen, dass die nach vernünftigem Ermessen vorhersehbaren Risiken für die Gesundheit, die Sicherheit, die Grundrechte, die Umwelt und die Demokratie und Rechtsstaatlichkeit vor und während der Entwicklung mit geeigneten Methoden ermittelt, verringert und gemindert werden...“

Die Vorgabe taucht auch an anderen Stellen der KI-Verordnung auf, z.B beim vorgesehenen Risk Management System. Wie muss man sich einen solchen Nachweis vorstellen? Ein Problem: Foundation Models sind aufgabenunabhängig (task agnostic). Damit ist kaum voraussehbar, welche Anwendungen zu den genannten Risiken führen. Stehen OpenAI &Co damit vor einer unlösbaren Aufgabe?

Was meinen Sie?

Diesen Beitrag per E-Mail weiterempfehlenDruckversion

Hinweise zur bestehenden Moderationspraxis
Kommentar schreiben

9 Kommentare

Kommentare als Feed abonnieren

Tja - gut Frage. In der Vorschrift heißt es weiter "... such as with the involvement of independent experts, as well as the documentation of remaining non-mitigable risks after development." - Also ein Gutachten schreiben lassen, wie "toll" das Foundation Model ist.

0

Da haben sich die Bürokraten in Brüssel wieder was einfallen lassen. Es kommt in Unterabs. "g" noch dicker: Danach müssen OpenAI &Co das jeweilige Foundation Model so "entwerfen und entwickeln, dass die geltenden Normen zur Verringerung des Energieverbrauchs, des Ressourcenverbrauchs und des Abfalls sowie zur Steigerung der Energieeffizienz verwendet werden." -- Also, ChatGPT zur Steuerung von Habecks Ölheizung muss verhindert werden :-)

0

Heute im Handelsblatt:

KI: Europa ist dabei, sich freiwillig abhängen zu lassen

Zitat: "Die EU-Kommission will mit dem AI-Act risikoreiche Anwendungen regulieren, kommt aber kaum hinterher, aktuelle Entwicklungen einzuarbeiten, und riskiert schon vor Beginn, veraltet zu sein. Der Nebeneffekt des europäischen Alleingangs ist, dass die wenigen wettbewerbsfähigen europäischen KI-Start-ups damit abgewürgt werden und abwandern. Auch erreicht die Kommission nicht die Spieler mit bösartigen Absichten, die der Regulierung nicht folgen und beispielsweise lieber Wahlen und Meinungen beeinflussen."

Quelle:https://www.handelsblatt.com/meinung/gastbeitraege/gastkommentar-ki-euro...

Was meinen Sie dazu?

Interessant noch die Implementierungsvorschriften zum AI Act: 

Nach der Verabschiedung des AI-Act wird es eine Schonfrist geben, bevor es zum Schwur kommt. Der jüngste Entwurf sieht einen Zeitraum von zwei Jahren vor, während der vorherige Entwurf drei Jahre vorsah. Es gab  in der Diskssion schon länger ernsthafte Bedenken, dass drei Jahre nicht ausreichen werden, um die für die Einhaltung der Vorschriften erforderliche Infrastruktur bei allen Beteiligten (Regulierungsbehörden, benannte Stellen und Industrienormen) aufzubauen.  Der Vorschlag von zwei Jahren wird wahrscheinlich ein heißes Thema für die Trilogue-Verhandlungen sein wird.

Lesenswert mit zum Teil harscher Kritik:

https://technomancers.ai/eu-ai-act-to-target-us-open-source-software/?ut...

Zitat: "The amended act, voted out of committee on Thursday, would sanction American open-source developers and software distributors, such as GitHub, if unlicensed generative models became available in Europe.  While the act includes open source exceptions for traditional machine learning models, it expressly forbids safe-harbor provisions for open source generative systems."

Sehen Sie das auch so?

In Texas gibt es die schon Richter, die mittlerweile folgendes von den einreichenden Anwälten einfordern:

"All attorneys appearing before the Court must file on the docket a certificate attesting either that no portion of the filing was drafted by generative artificial intelligence (such as ChatGPT, Harvey.AI, or Google Bard) or that any language drafted by generative artificial intelligence was checked for accuracy, using print reporters or traditional legal databases, by a human being." 

https://www.txnd.uscourts.gov/judge/judge-brantley-starr 

 

Das Europäische Parlament hat seine Verhandlungsposition zum AI Act mit 499 Ja-Stimmen, 28 Nein-Stimmen und 93 Enthaltungen angenommen, bevor jetzt die Trilogue-Gespräche mit den EU-Mitgliedstaaten über die endgültige Form des Gesetzes beginnen.

https://www.europarl.europa.eu/news/en/press-room/20230609IPR96212/meps-ready-to-negotiate-first-ever-rules-for-safe-and-transparent-ai

Kommentar hinzufügen