Die gesetzgebenden EU-Organe fokussierten sich zu Beginn auf die Regulierung von KI-Systeme, welche für einen mehr oder weniger spezifischen Zweck (z. B. autonomes Fahren) entwickelt wurden. Seitdem KI-Tools wie ChatGPT & Co auch die breite Öffentlichkeit erreichte, wandte sich dann auch der Blick auf „KI-Modelle mit allgemeinem Verwendungszweck“.
KI-Modelle mit allgemeinem Verwendungszweck – im Englischen als General Purpose AI Models (GPAI) oder Foundation Model bezeichnet – sind KI-Modelle (nicht zu verwechseln mit KI-Systemen, siehe Erwägungsgründe 97f), die ein breites Spektrum von Aufgaben zu bewältigen können, anstatt für eine spezifische Aufgabe oder Anwendung optimiert worden zu sein. Diese Modelle sind oft in der Lage, große Mengen an unstrukturierten Daten wie Text, Bildern, Audio und Videos zu verarbeiten und auch Aufgaben wie Klassifizierung, Generierung und Vorhersagen zu übernehmen.
Aufgrund der Flexibilität und Anpassungsfähigkeit werden diese Modelle in einer Vielzahl von Fällen und verschiedenen Branchen eingesetzt. Sie bilden auch oftmals die Basis für Feinjustierungen in Bezug auf spezifische KI-Systeme. Zu den Beispielen für GPAI-Modelle zählen etwa die auf Transformer-Modelle beruhenden großen Sprachmodelle („Large Language Models [LLM])“ von OpenAI („GPT-3.5/GPT-4“), Meta („LLama“) oder Mistral („Mixtral“). GPAI-Modelle beschränken sich allerdings nicht auf Sprachmodelle, auch andere Modelle beispielsweise zur Klassifikation können unter diese Definition fallen.
Um mögliche für GPAI-Modelle spezifische Risiken (etwa unerwünschte Ergebnisse, Urheber- und Datenschutzverstöße bei der Entwicklung) zu begegnen, werden den Anbieter:innen insbesondere Dokumentations- und Informationspflichten (siehe Art. 53 AIA) auferlegt.
Zwischen den Begriffen „KI-Systeme“ und „KI-Modelle“ ist klar zu trennen. In den Anwendungsbereich des AI Act fallen nicht alle KI-Modelle, sondern ausschließlich GPAI-Modelle. GPAI-Modelle können zwar Teil eines KI-Systems sein, sie bilden allerdings isoliert betrachtet kein KI-System. Damit ein GPAI-Modell zu einem KI-System werden kann, wird das Hinzufügen weiterer Komponenten – wie z. B. einer Nutzerschnittstelle – notwendig. In diesem Fall wird dann von einem KI-System mit allgemeinem Verwendungszweck (bzw. GPAI-System) im Sinne des Art. 3 Ziffer 66 AIA gesprochen.
GPAI und generative KI sind ähnliche Konzepte, aber nicht genau dasselbe. GPAI-Modelle sind darauf ausgelegt, ein breites Anwendungsspektrum zu bedienen und erfassen verschiedenste KI-Modelle. Generative KI bezieht sich hingegen auf Modelle, die auf das Erzeugen von Texten, Bildern, Videos, Musik und anderen Inhalten ausgerichtet sind (GPAI-Systeme wie z. B. ChatGPT für das Generieren von Texten; Midjourney oder DALL-E für das Generieren von Bilder und Videos etc.). Generative KI ist daher ein spezifischer Unterbereich von GPAI-Modellen.
Kurzgefasst haben GPAI-Modelle vielseitige Einsatzmöglichkeiten, während generative KI-Systeme sich speziell auf die Fähigkeit beziehen, Daten oder Inhalte zu generieren.
Eine Sonderstellung nehmen GPAI-Modelle mit systemischen Risiken ein. Mit „Systemrisiko“ referiert der Unionsgesetzgeber auf Risiken, die für ein GPAI-Modell, welche über Fähigkeiten mit einem hohen Wirkungsgrad („high impact capabilities“) verfügt, spezifisch sind (Art. 3 Ziffer 65 Teilsatz 1 AIA). Ein GPAI-Modell, welches Fähigkeiten mit einem hohen Wirkungsgrad verfügt, liegt dann vor, wenn die Fähigkeiten des in Rede stehenden GPAI-Modells jene der fortschrittlichsten GPAI-Modelle entsprechen oder diese sogar übertreffen (Art. 3 Ziffer 64 AIA). Diese Modelle haben eine gewisse Reichweite bzw haben diese für die öffentliche Gesundheit, die Sicherheit, die öffentliche Sicherheit, die Grundrechte oder die Gesellschaft tatsächlich oder vernünftigerweise vorhersehbare negative Folgen, die insgesamt erhebliche Auswirkungen auf den Unionsmarkt haben, die sich in großem Umfang über die gesamte Wertschöpfungskette hinweg verbreiten können (vgl. Art. 3 Ziffer 65 Teilsatz 2 AIA).
Ein GPAI-Modell mit systemischem Risiko liegt vor, wenn eines der folgenden Kriterien erfüllt ist (Art. 51 Abs. 1 AIA):
Als Gleitkommaoperation (Englisch: FLoating Point OPeration, FLOP) definiert der AI Act in Art. 3 Z. 67 jede Rechenoperation mit Gleitkommazahlen. Davon umfasst sind etwa Grundrechenoperationen wie Addition und Multiplikation. Eine einfache Rechnung wie „42 * 42 + 17,32“ wären damit zwei FLOPs (42*42; 1764 + 17,32).
Die Anzahl der Gleitkommaoperationen, die in der Trainingsphase notwendig waren, verwendet der AIA als Substitut für die Mächtigkeit eines Modells. So geht der AI Act davon aus, dass beim derzeit festgelegten Schwellenwert von 1025 FLOPs (ausgeschrieben: 10.000.000.000.000.000.000.000.000 Rechenoperationen) ein Modell mit hohem Wirkungsgrad entsteht. Aktuelle Open Source-Modelle überschreiten diese Grenze bereits: Das von Meta im Juli 2024 als Open Source veröffentlichte LLama-3-Modell 405B erreicht in der aufgewendeten Trainingsleistung 3,8 x 1025 FLOPS.
Um diese Zahl einzuordnen: Ein aktueller Smartphone-Chip schafft derzeit eine Größenordnung von mehreren 1012 FLOPs pro Sekunde („Teraflop/s“), eine aktuelle Heimanwender-Grafikkarte mehr als das vierzigfache davon. Aktuelle Rechenzentren-GPUs schaffen derzeit bereits fast 2.000 Teraflops pro Sekunde bei einfachen Rechenoperationen. Ein aktuelles Smartphone müsste damit 100.000 Jahre am Stück rechnen, um die Grenze der 1025 Rechenoperationen zu erreichen.
Die Relationen sind in der untenstehenden Grafik zusammengefasst.
Zur Beurteilung, ob ein GPAI-Modell mit systemischem Risiko vorliegt, sind folgende Parameter gemäß Anhang XIII zu berücksichtigen:
Aufgrund des Risikopotentials werden den Anbieter:innen von GPAI-Modellen mit systemischen Risiken über Art. 53 AIA hinausgehende Pflichten auferlegt. Anbieter:innen haben insbesondere Maßnahmen zur Ermittlung, Bewertung und Minderung von Systemrisiken zu treffen (siehe Art. 55 AIA).
Europäisches Parlament: General-purpose artificial intelligence (EN)