Stehen ChatGPT&Co nach der neuen KI-Verordnung (AI Act) vor unlösbaren Aufgaben?
Gespeichert von Dr. Axel Spies am
Im nach langen Mühen erzielten Kompromiss zur KI-Verordnung, den die Ausschüsse im EU Parlament gestern abgesegnet haben, findet man eine interessante Vorschrift für so genannte Foundation Models. Auch ChatGPT beruht auf einem Foundation Model als Rückgrat (GPT, GPT-2, GPT-3, GPT-3.5, GPT-4...). Auf den Punkt gebracht sind Foundation-Modelle KI-Modelle, die auf großen Mengen von Datensätze trainiert wurden und zur Lösung unterschiedlicher, nicht vorher bekannter nachgelagerter Aufgaben verwendet werden können.
Erwägung 60e erklärt hierzu (übersetzt):
„Foundation Models sind eine neuere Entwicklung, bei der KI-Modelle auf der Grundlage von Algorithmen entwickelt werden, die im Hinblick auf Allgemeinheit und Vielseitigkeit der Ergebnisse optimiert wurden. Diese Modelle werden häufig auf einem breiten Spektrum von Datenquellen und großen Datenmengen trainiert, um ein breites Spektrum nachgelagerter Aufgaben zu erfüllen, darunter auch solche, für die sie nicht speziell entwickelt und trainiert wurden. Diese Systeme können unimodal oder multimodal sein und durch verschiedene Methoden wie überwachtes Lernen oder verstärktes Lernen trainiert werden. KI-Systeme mit spezifischem Verwendungszweck oder KI-Systeme für allgemeine Zwecke können eine Implementierung eines Foundation Models sein, was bedeutet, dass jedes Foundation Model in zahllosen nachgelagerten KI-Systemen oder KI-Systemen für allgemeine Zwecke wiederverwendet werden kann. Diese Modelle sind für viele nachgelagerte Anwendungen und Systeme von wachsender Bedeutung.“
Nach Art. 28b Abs. 2 (a) des Kompromisses muss jeder Anbieter eines Foundation Models in Zukunft „durch geeignete Planung, Prüfung und Analyse nachweisen, dass die nach vernünftigem Ermessen vorhersehbaren Risiken für die Gesundheit, die Sicherheit, die Grundrechte, die Umwelt und die Demokratie und Rechtsstaatlichkeit vor und während der Entwicklung mit geeigneten Methoden ermittelt, verringert und gemindert werden...“
Die Vorgabe taucht auch an anderen Stellen der KI-Verordnung auf, z.B beim vorgesehenen Risk Management System. Wie muss man sich einen solchen Nachweis vorstellen? Ein Problem: Foundation Models sind aufgabenunabhängig (task agnostic). Damit ist kaum voraussehbar, welche Anwendungen zu den genannten Risiken führen. Stehen OpenAI &Co damit vor einer unlösbaren Aufgabe?
Was meinen Sie?