Der AI Act verfolgt einen risikobasierten Ansatz, um ein verhältnismäßiges, wirksames und verbindliches Regelwerk für KI-Systeme einzuführen. KI-Systeme werden entsprechend ihrem Risikopotential nach inakzeptablem, hohem, geringem und minimalem Risiko kategorisiert. Risiko definiert der AI Act als „die Kombination aus der Wahrscheinlichkeit des Auftretens eines Schadens und der Schwere dieses Eintritts“ (Art. 3) und bewertet insb mögliche Schäden an individuellen und/oder öffentlichen Interessen (Gesundheit, Sicherheit, Grundrechte, einschließlich Demokratie, der Rechtsstaatlichkeit und des Umweltschutzes). Schäden können materieller oder immaterieller Natur sein. Erfasst sind physische, psychische, gesellschaftliche oder wirtschaftliche Schäden.
Eine Sonderstellung nehmen in dieser Kategorisierung die KI-Modelle mit allgemeinem Verwendungszweck (General Purpose AI Models) ein.
Manche Praktiken in Zusammenhang mit KI-Systeme bergen ein zu hohes Risiko im Hinblick auf die Wahrscheinlichkeit eines Schadenseintritts und auch des Schadensausmaßes an individuellen oder öffentlichen Interessen, weshalb sie verboten sind.
Dazu zählen gemäß Artikel 5 AI Act:
Hochrisiko-KI-Systeme stellen – wie bereits der Name sagt – ein hohes Risiko dar im Hinblick auf die Wahrscheinlichkeit eines Schadenseintritts und auch des Schadensausmaßes an individuellen oder öffentlichen Interessen. Hochrisiko-KI-Systeme gemäß Artikel 6 AI Act sind allerdings nicht per se verboten. Das Inverkehrbringen oder die Inbetriebnahme ist nur unter Einhaltung bestimmter Anforderungen erlaubt. Derartige KI-Systeme sind unter anderem im Anhang I und III des AI Act aufgelistet:
Anhang I – Das KI-System soll als Sicherheitskomponente eines unter den unten angeführten EU-Vorschriften fallenden Produkts verwendet werden oder ist selbst ein unter diese Vorschriften fallendes Produkt.
Zusätzlich gelten auch noch die in Anhang III abschließend genannten KI-Systeme als hochriskant im Sinne des AIA:
Als KI-Systeme mit „begrenztem“ Risiko werden KI-Systeme bezeichnet, deren Risiko durch Transparenz minimiert werden kann. Derartige KI-Systeme sind nicht verboten. Den Anbieter:innen und Betreiber:innen werden überwiegend Transparenzpflichten auferlegt, etwa dass Personen darüber informiert werden, dass sie mit einem KI-System interagieren oder Inhalte künstlich erzeugt wurden. Unter KI-Systeme mit „begrenztem“ Risiko fallen gemäß Artikel 50 AI Act folgende Systeme:
Alle sonstigen KI-Systeme werden als solche mit „minimalem“ oder keinem Risiko klassifiziert. Darunter fallen z. B. Videospiele oder Spam-Filter. Sie unterliegen keinen spezifischen Pflichten im Sinne des AI Act. Das Einhalten von Verhaltenskodizes (Code of Practices) wird gefördert, sie sind aber freiwillig (Erwägungsgründe 165 iVm. Artikel 95 Ai Act).