Der AI Act verfolgt einen risikobasierten Ansatz, um ein verhältnismäßiges, wirksames und verbindliches Regelwerk für KI-Systeme einzuführen. KI-Systeme werden entsprechend ihrem Risikopotential nach inakzeptablem, hohem, geringem und minimalem Risiko kategorisiert. Risiko definiert der AI Act als „die Kombination aus der Wahrscheinlichkeit des Auftretens eines Schadens und der Schwere dieses Eintritts“ (Art. 3) und bewertet insb mögliche Schäden an individuellen und/oder öffentlichen Interessen (Gesundheit, Sicherheit, Grundrechte, einschließlich Demokratie, der Rechtsstaatlichkeit und des Umweltschutzes). Schäden können materieller oder immaterieller Natur sein. Erfasst sind physische, psychische, gesellschaftliche oder wirtschaftliche Schäden.
Eine Sonderstellung nehmen in dieser Kategorisierung die KI-Modelle mit allgemeinem Verwendungszweck (General Purpose AI Models) ein.
Manche Praktiken in Zusammenhang mit KI-Systeme bergen ein zu hohes Risiko im Hinblick auf die Wahrscheinlichkeit eines Schadenseintritts und auch des Schadensausmaßes an individuellen oder öffentlichen Interessen, weshalb sie verboten sind.
Dazu zählen gemäß Artikel 5 AI Act:
Hochrisiko-KI-Systeme stellen – wie bereits der Name sagt – ein hohes Risiko dar im Hinblick auf die Wahrscheinlichkeit eines Schadenseintritts und auch des Schadensausmaßes an individuellen oder öffentlichen Interessen. Hochrisiko-KI-Systeme gemäß Artikel 6 AI Act sind allerdings nicht per se verboten. Das Inverkehrbringen oder die Inbetriebnahme ist nur unter Einhaltung bestimmter Anforderungen erlaubt. Derartige KI-Systeme sind unter anderem im Anhang I und III des AI Act aufgelistet:
Anhang I – Das KI-System soll als Sicherheitskomponente eines unter den unten angeführten EU-Vorschriften fallenden Produkts verwendet werden oder ist selbst ein unter diese Vorschriften fallendes Produkt.
Abschnitt A – Liste der Harmonisierungsrechtsvorschriften der Union auf der Grundlage des neuen Rechtsrahmens:
Abschnitt B – Liste anderer Harmonisierungsrechtsvorschriften der Union;
Zusätzlich gelten auch noch die in Anhang III abschließend genannten KI-Systeme als hochriskant im Sinne des AIA:
In kritischer Infrastruktur eingesetzte KI-Systeme können nach Art. 6 Abs. 2 iVm Anhang III Z 2 AIA Hochrisiko-KI-Systeme sein. Konkret ist ein KI-System als Hochrisiko-KI-System einzustufen, wenn es im Bereich der kritischen Infrastruktur als Sicherheitsbauteil verwendet wird:
Für die Beurteilung stellt sich die Frage, was konkret "kritische Infrastruktur" und was ein "Sicherheitsbauteil" ist.
Grundsätzlich gehört die kritische Infrastruktur zu einer kritischen Einrichtung. In der Definition in Art. 3 Z. 62 AIA wird bzgl. des Begriffes "kritische Infrastruktur" auf Art. 2 Z. 4 der Richtlinie (EU) 2022/2557 ("Richtlinie über die Resilienz kritischer Infrastruktur", "critical entities resilience directive", "CER") verwiesen. Laut Art. 2 Z. 1, 4 und 5 CER muss diese "kritische Einrichtung", also eine öffentliche oder private Einrichtung, vom jeweiligen Mitgliedstaat als solche eingestuft werden.
Zur dazugehörigen konkreten „kritischen Infrastruktur“ zählen demnach:
die für die Erbringung eines wesentlichen Dienstes erforderlich ist. Ein Dienst ist wesentlich, wenn er von entscheidender Bedeutung ist
In Art. 2 der aufgrund der CER ergangenen Delegierten Verordnung 2023/2450 der Europäischen Kommission, ist eine nicht erschöpfende Liste von wesentlichen Diensten genannt.
Der Begriff des "Sicherheitsbauteil" wird in Art. 3 Z 14 AIA folgendermaßen definiert:
ein[…] Bestandteil eines Produkts oder KI-Systems, der eine Sicherheitsfunktion für dieses Produkt oder KI-System erfüllt oder dessen Ausfall oder Störung die Gesundheit und Sicherheit von Personen oder Eigentum gefährdet
Speziell zu Kritischer Infrastruktur wird der Gesetzgeber in ErwG 55 AIA etwas deutlicher:
(55) […] Sicherheitsbauteile kritischer Infrastruktur, einschließlich kritischer digitaler Infrastruktur, sind Systeme, die verwendet werden, um die physische Integrität kritischer Infrastruktur oder die Gesundheit und Sicherheit von Personen und Eigentum zu schützen, die aber nicht notwendig sind, damit das System funktioniert. Ausfälle oder Störungen solcher Komponenten können direkt zu Risiken für die physische Integrität kritischer Infrastruktur und somit zu Risiken für die Gesundheit und Sicherheit von Personen und Eigentum führen. Komponenten, die für die ausschließliche Verwendung zu Zwecken der Cybersicherheit vorgesehen sind, sollten nicht als Sicherheitsbauteile gelten. Zu Beispielen von Sicherheitsbauteilen solcher kritischen Infrastruktur zählen etwa Systeme für die Überwachung des Wasserdrucks oder Feuermelder-Kontrollsysteme in Cloud-Computing-Zentren.
Ob eine Ausnahme davon iSd einer der Ausnahmegründen des Art. 6 Abs. 3 AIA vorliegt, wird auf die Ausgestaltung im konkreten Einzelfall ankommen.
Als KI-Systeme mit "begrenztem" Risiko werden KI-Systeme bezeichnet, deren Risiko durch Transparenz minimiert werden kann. Derartige KI-Systeme sind nicht verboten. Den Anbieter:innen und Betreiber:innen werden überwiegend Transparenzpflichten auferlegt, etwa dass Personen darüber informiert werden, dass sie mit einem KI-System interagieren oder Inhalte künstlich erzeugt wurden. Unter KI-Systeme mit "begrenztem" Risiko fallen gemäß Artikel 50 AI Act folgende Systeme:
Alle sonstigen KI-Systeme werden als solche mit "minimalem" oder keinem Risiko klassifiziert. Darunter fallen z. B. Videospiele oder Spam-Filter. Sie unterliegen keinen spezifischen Pflichten im Sinne des AI Act. Das Einhalten von Verhaltenskodizes (Code of Practices) wird gefördert, sie sind aber freiwillig (Erwägungsgründe 165 iVm. Artikel 95 AI Act).