Wie im AI Act bereits in den Erwägungsgründen festgehalten wird, ist es angesichts des Wesens und der Komplexität der KI-Wertschöpfungskette und im Einklang mit dem neuen Rechtsrahmen von wesentlicher Bedeutung, Rechtssicherheit zu gewährleisten und die Einhaltung dieser Verordnung zu erleichtern. Daher müssen die Rollen und die spezifischen Pflichten der relevanten Akteure entlang der Wertschöpfungskette präzisiert werden. Der Kern des AI Act betrifft Verpflichtungen in Zusammenhang mit KI-Systemen bzw. KI-Modellen entsprechend ihrer Risikoklassifizierung.
In bestimmte Situationen können verschiedene Rollen der KI-Wertschöpfungskette in einer Person oder Organisation zusammenfallen. Folgende Konstellationen sind z.B. möglich:
Ganz allgemein treffen Anbieter von KI-Systemen jeder Art die Pflicht, sicherzustellen, dass eingesetztes Personal und anderen Personen, welche mit den KI-Systemen betraut sind ein ausreichendes Maß an KI-Kompetenz aufweisen (Art. 4 AIA). Das umfasst die Fähigkeiten, die Kenntnisse und das Verständnis, die es Anbietern unter Berücksichtigung ihrer jeweiligen Rechte und Pflichten im Rahmen des AI Act ermöglichen, KI-Systeme sachkundig einzusetzen sowie sich der Chancen und Risiken von KI und möglicher Schäden, die sie verursachen kann, bewusst zu werden (Art. 3 Ziffer 56 AIA).
Dabei handelt es sich um KI-Systeme, die ein hohes Risiko aufweisen. Sie sind zwar nicht verboten, aber dafür sind zum Teil weitreichende Pflichten einzuhalten. Die Pflichten der Anbieter von Hochrisiko-KI-Systemen werden in Art. 16 AIA normiert. Zu den Pflichten zählt die Sicherstellung der Anforderungen an Hochrisiko-KI-Systeme gemäß Art. 16 Buchstabe a iVm. Kapitel III Abschnitt 2:
Ein Risikomanagementsystem ist einzurichten, anzuwenden, zu dokumentieren und aufrechtzuerhalten (siehe Art. 9 Abs. 1 AIA). Das Risikomanagement versteht sich als ein kontinuierlicher iterativer, also sich wiederholender, Prozess während des gesamten Lebenszyklus. Den Anbieter von Hochrisiko-KI-Systeme treffen Risikobewertungs- und minderungspflichten. Bekannte und vernünftigerweise vorhersehbare Risiken in Bezug auf Gesundheit, Sicherheit oder Grundrechte sind zu ermitteln, zu analysieren und zu bewerten. Neben möglicher Risiken entsprechend der Zweckbestimmung des KI-Systems sind auch vernünftige vorhersehbare Fehlanwendungen zu bewerten. Risiken, die sich erst nach dem Inverkehrbringen, gemäß Art. 72 AIA zeigen, sind auch zu bewerten. Auf Basis der ermittelten Risiken sind „geeignete und gezielte“ Risikomanagementmaßnahmen zu ergreifen. Das Risikomanagementsystem erfordert auch, dass Hochrisiko-KI-Systeme während des gesamten Entwicklungsprozesses getestet werden (etwa durch Tests unter Realbedingungen außerhalb von KI-Reallaboren gemäß Art. 60 AIA).
KI-Systeme basieren in der Regel auf KI-Modellen. Sofern die in Hochrisiko-KI-Systemen verwendeten KI-Modelle mit Daten trainiert wurden, müssen Trainings-, Validierungs- und Testdatensätze entwickelt werden, welche den Qualitätsanforderungen des Art. 10 Abs. 2 bis 5 AIA entsprechen (siehe Art. 10 Abs. 1 AIA). Unter anderem sind diese Datensätze auf Verfügbarkeit, Menge und Eignung zu bewerten, mögliche Verzerrungen sind zu prüfen (Bias), Datenlücken oder Mängel sind zu ermitteln. Datensätze haben hinreichend repräsentativ, soweit möglich fehlerfrei und vollständig zu sein. Es müssen Datensätze eingesetzt werden, die den geografischen, kontextuellen, verhaltensbezogenen oder funktionalen Rahmenbedingungen, unter denen das Hochrisiko-KI-System bestimmungsgemäß verwendet werden soll, typisch sind; z.B. autonome Fahrsysteme – diese Systeme müssen stark auf sicherheitskritische Entscheidungen vorbereitet sein und in einer breiten Palette von geografischen und kontextuellen Situationen (z. B. ungünstigen Wetterbedingungen) funktionieren.
Die technische Dokumentation gemäß Art. 11 AIA ist vor Inverkehrbringen oder Inbetriebnahme eines Hochrisiko-KI-Systems zu erstellen. Die Mindestangaben für eine technische Dokumentation sind in Anhang IV aufgezählt. Die technische Dokumentation hat so zu erfolgen, dass daraus der Nachweis hervorgeht, dass die Anforderungen an Hochrisiko-KI-Systeme erfüllt werden. Sie muss zuständige Behörden und notifizierte Stellen in die Lage versetzen, zu beurteilen, ob das KI-System die geforderten Anforderungen erfüllt.
KMU, einschließlich Start-up-Unternehmen, können die in Anhang IV aufgeführten Elemente der technischen Dokumentation in vereinfachter Weise bereitstellen.
In Bezug auf Produkte gemäß Anhang I Abschnitt A angeführte Harmonisierungsvorschriften kann eine einzige technische Dokumentation erstellt werden, die neben der allgemeinen Dokumentation auch die Erfordernisse des AI Acts abdeckt. Z.B. wird in der Medizinprodukteverordnung auch die Pflicht normiert, dass Hersteller von Produkten eine technische Dokumentation erstellen müssen (Art. 10 Abs. 4 MDR).
Hochrisiko-KI-Systeme müssen technisch so konzipiert und entwickelt sein, dass sie die automatische Aufzeichnung von Ereignissen – sog „Protokollierung“ – ermöglichen (siehe Art. 12 AIA). Diese Protokollierung dient zu Dokumentationszwecken, vor allem, um zu ermitteln, ob das Hochrisiko-KI-System ein Risiko im Sinne des Art. 79 Abs. 1 AIA birgt oder eine „wesentliche Änderung“ vorgenommen wurde.
Die in Anhang III Nummer 1 Buchstabe a AIA genannten Hochrisiko-KI-Systeme (Biometrische Fernidentifizierungssysteme) müssen besondere Protokollierungsfunktionen erfüllen.
Hochrisiko-KI-Systeme sind transparent zu konzipieren und zu entwickeln, damit Betreiber im Sinne des Art. 3 Ziffer 4 AIA die Ausgaben angemessen interpretieren und anwenden können (siehe Art. 13 AIA). Diese Pflicht umfasst im Besonderen die Erstellung einer Betriebsanleitung, die präzise, vollständige, korrekte und eindeutige Informationen für die Betreiber bereitstellt. Betriebsanleitung hat unter anderem folgende Information zu enthalten:
Hochrisiko-KI-Systeme müssen so konzipiert und entwickelt sein, dass diese während der Dauer ihrer Verwendung von natürlichen Personen wirksam beaufsichtigt werden können (siehe Art. 14 AIA). Zweck dieser Anforderung ist, Risiken für Gesundheit, Sicherheit und Grundrechte zu verhindern oder zu minimieren, da es nicht ausgeschlossen ist, dass Risiken trotz Einhaltung aller Anforderungen des Kapitels III Abschnitt 2 fortbestehen.
Entsprechend den Risiken, dem Grad der Autonomie und dem Kontext der Nutzung des Hochrisiko-KI-Systems sind angemessene Aufsichtsmaßnahmen zu treffen. Dies können Vorkehrungen technischer Natur sein, die in das Hochrisiko-KI-System eingebaut werden oder/und Vorkehrungen sein, die vom Betreiber umzusetzen sind.
Hochrisiko-KI-Systeme müssen so konzipiert und entwickelt sein, dass ein angemessenes Maß an Genauigkeit, Robustheit und Cybersicherheit während des gesamten Lebenszyklus erreicht wird (siehe Art. 15 AIA).
Die „Genauigkeit“ („Accuracy“) bezieht sich auf das Ausmaß, in dem die Vorhersagen oder Klassifizierungen eines Modells mit den tatsächlichen Daten übereinstimmen. Es ist ein Maß dafür, wie gut das Modell in der Lage ist, die richtigen Vorhersagen zu treffen.
„Robustheit“ beschreibt die Widerstandsfähigkeit von Hochrisiko-KI-Systeme; diese müssen so widerstandsfähig wie möglich gegenüber Fehlern, Störungen oder Unstimmigkeiten sein, die innerhalb des Systems oder der Umgebung, in der das System betrieben wird, insbesondere wegen seiner Interaktion mit natürlichen Personen oder anderen Systemen, auftreten können (ErwG 75).
„Cybersicherheit“ spielt eine entscheidende Rolle, wenn es darum geht, sicherzustellen, dass KI-Systeme widerstandsfähig gegenüber Versuchen böswilliger Dritter sind, unter Ausnutzung der Schwachstellen der Systeme deren Verwendung, Verhalten, Leistung zu verändern oder ihre Sicherheitsmerkmale zu beeinträchtigen.
Bei den Anforderungen an Genauigkeit, Robustheit und Cybersicherheit handelt es sich großteils um technische Aspekte, weshalb diese Messungen anhand von zu entwickelnden Benchmarks und Messmethoden sichergestellt werden sollen. Neben technischen sind auch organisatorische Maßnahmen zu ergreifen.
Als mögliche Maßnahmen werden Sicherungs- oder Störungssicherheitspläne (siehe Art. 15 Abs. 4 Unterabs. 2 AIA), Maßnahmen zur Risikominderung von sog „Rückkoppelungsschleifen“ sowie Maßnahmen (siehe Art. 15 Abs. 4 Unterabs. 3 AIA), um Angriffe, mit denen versucht wird, eine Manipulation des Trainingsdatensatzes („data poisoning“) oder vortrainierter Komponenten, die beim Training verwendet werden („model poisoning“), vorzunehmen, Eingabedaten, die das KI-Modell zu Fehlern verleiten sollen („adversarial examples“ oder „model evasions“) (siehe Art. 15 Abs. 5 AIA) werden exemplarisch genannt.
Gem. Art. 16 Buchstabe a bis l AIA treffen den Anbieter auch noch weitere folgende Pflichten. Dabei handelt es sich nicht um Anforderungen an das Hochrisiko-KI-System selbst, sondern um „sonstige“ Pflichten.
Anbieter von Hochrisiko-KI-Systemen haben ein Qualitätsmanagementsystem einzurichten, das die Einhaltung dieser Verordnung gewährleistet. Es sind Regeln, Verfahren und Anweisungen zu dokumentieren (siehe Art. 17 AIA). Dieses System hat unter anderem ein Konzept zu enthalten, wie Regulierungsvorschriften und Konformitätsbewertungsverfahren eingehalten werden sollen.
Anbieter von Hochrisiko-KI-Systemen haben am KI-System selbst oder, falls dies nicht möglich ist, auf seiner Verpackung oder beigefügten Dokumentation, ihren Namen, ihren eingetragenen Handelsnamen bzw. ihre Handelsmarke sowie ihre Kontaktanschrift anzuführen (siehe Art. 16 Buchstabe b AIA)
Für einen Zeitraum von zehn Jahren ab Inverkehrbringen oder Inbetriebnahme Dokumente wie die technische Dokumentation gemäß Art. 11 AIA, die Dokumentation im Sinne des Art. 18 AIA, Dokumentation über von den notifizierten Stellen genehmigte Änderungen, gegebenenfalls von den notifizierten Stellen ausgestellte Entscheidungen und sonstige Dokumente sowie die EU-Konformitätserklärung gemäß Art. 47 AIA aufzubewahren (siehe Art. 18 AIA).
Für einen Zeitraum von sechs Monaten sind die automatisch erzeugten Protokolle gemäß Art. 12 Abs. 1 AIA aufzubewahren (siehe Art. 19 AIA).
Vor dem Inverkehrbringen oder der Inbetriebnahme von Hochrisiko-KI-Systemen im Sinne des Anhangs III (ausgenommen ist Ziffer 2: Kritische Infrastruktur) muss der Anbieter das Hochrisiko-KI-System in der EU-Datenbank im Sinne des Art. 71 AIA registrieren (siehe Art. 49 Abs. 1 AIA)
Auf begründete Anfrage einer zuständigen Behörde haben Anbieter von Hochrisiko-KI-Systemen sämtliche Informationen und Dokumentationen zu übermitteln, einschließlich der automatisch erzeugten Protokolle, sofern sie Zugriff darauf haben (siehe Art. 21 AIA)
Der Anbieter von Hochrisiko-KI-Systemen hat sicherzustellen, dass ein Konformitätsbewertungsverfahren durchgeführt wird (Art. 43 AIA). Je nachdem um welches Hochrisiko-KI-System es sich handelt, kann dies auf Grundlage einer internen Kontrolle oder unter Beteiligung einer notifizierten Stelle erfolgen. Weiters ist eine Konformitätsbewertungserklärung auszustellen (Art. 47 AIA) und eine CE-Kennzeichnung am KI-System selbst oder, wenn dies nicht möglich ist, auf seiner Verpackung oder in der beigefügten Dokumentation anzubringen (Art. 48 AIA).
Bei schwerwiegenden Vorfällen von in Verkehr gebrachte Hochrisiko-KI-Systeme hat der Anbieter dies jener nationalen Marktüberwachungsbehörde zu melden, wo der Vorfall stattgefunden hat. Eine Meldung hat unmittelbar nach Feststellen des kausalen Zusammenhangs oder der naheliegenden Wahrscheinlichkeit, aber in jedem Fall spätestens 15 Tage nach Kenntnis des schwerwiegenden Vorfalls, zu erfolgen (siehe Art. 73 AIA). Von dieser Grundregel gibt es für bestimmte Vorfälle zeitlich engere Anforderungen.
Von einem schwerwiegenden Vorfall sind gemäß Art. 3 Ziffer 49 AIA Vorfälle oder Fehlfunktionen gemeint, die zum Tod oder zu schweren Gesundheitsschäden führen, schwerwiegende und irreversible Störungen der Verwaltung und des Betriebs kritischer Infrastrukturen, Verstöße gegen Verpflichtungen aus dem Unionsrecht, mit denen die Grundrechte geschützt werden sollen, oder schwere Sach- oder Umweltschäden.
Konkret sind die Barrierefreiheitsanforderungen der Richtlinien (EU) 2016/2102 und (EU) 2019/882 zu erfüllen (siehe Art. 16 Buchstabe l AIA). Gemäß Anhang I Abschnitt I der Richtlinie (EU) 2019/882 betrifft dies etwa konkrete Anforderungen an die Bereitstellung von Informationen, die Gestaltung von Benutzerschnittstellen und Funktionalität und auch Unterstützungsdienste wie z. B. Help-Desk, Call-Center etc.).
In Drittstaaten niedergelassene Anbieter müssen vor der Bereitstellung des Hochrisiko-KI-Systems gemäß Art. 22 AIA einen in der Union niedergelassenen Bevollmächtigten benennen. Anbieter sind verpflichtet, dem Bevollmächtigten zu ermöglichen, ihre Aufgaben wahrzunehmen.
Ist ein Anbieter von Hochrisiko-KI-Systemen der Auffassung oder gibt es Grund zur Annahme, dass ein in bereits in Verkehr gebrachtes oder in Betrieb genommenes Hochrisiko-KI-System nicht dem AI Act entspricht, sind unverzüglich Korrekturmaßnahmen zu ergreifen. Dies bedeutet primär die Herstellung der Konformität, es kann aber auch das Zurücknehmen, Deaktivieren oder Zurückrufen des KI-Systems bedeuten. Gleichzeitig sind auch nachgelagerte Akteure (Betreiber, Bevollmächtigte, Einführer) davon zu informieren.
Birgt das Hochrisiko-KI-System ein Risiko im Sinne des Art. 79 Abs 1 AIA und wird sich der Anbieter dessen bewusst, so nimmt dieser – gegebenenfalls gemeinsam mit dem Betreiber – die Meldung an die Marktüberwachungsbehörden, gegebenenfalls auch an die notifizierte Stelle vor.
Der AI Act listet in Art. 50 AIA bestimmte KI-Systeme auf, welche ein begrenztes Risiko bergen. Das Risiko kann mittels bestimmter Transparenzpflicht minimiert werden. Zusammengefasst können sie unter die Kategorie „Transparenz gegenüber nachgelagerten Akteuren“ zusammengefasst werden.
Den Anbieter treffen bezüglich folgender KI-Systeme folgende Transparenzpflichten:
Solche KI-Systeme sind dahingehend zu konzipieren und zu entwickeln, dass betroffene natürliche Personen darüber informiert werden, dass sie mit einem KI-System interagieren. Ausgenommen davon sind Fälle, wo dies aus den Umständen und des Kontextes der Nutzung offensichtlich ist.
KI-Systeme (einschließlich GPAI-Systeme), welche Bild-, Audio- oder Videoinhalte erzeugen oder manipulieren, sind so zu konzipieren und zu entwickeln, dass die Ausgaben in einem maschinenlesbaren Format ausgegeben und als künstlich erzeugt oder manipuliert erkannt werden können.
Bei KI-Systemen mit minimalem Risiko werden keine verpflichtend einzuhaltenden Anforderungen normiert. Lediglich die Verpflichtung zur „KI-Kompetenz“ gemäß Art. 4 AIA trifft auch auf solche KI-Systeme zu. Im Übrigen wird die Einhaltung von Code of Practices gefördert, diese ist aber freiwillig.
Handelt es sich um GPAI-Modelle haben Anbieter gemäß Art. 53, 54 AIA folgende Pflichten zu erfüllen:
Anbieter von GPAI-Modellen erstellen und aktualisieren die technische Dokumentation des Modells, einschließlich seines Trainings- und Testverfahrens und der Ergebnisse seiner Bewertung, die mindestens die in Anhang XI aufgeführten Informationen enthält (Art. 53 Abs. 1 Buchstabe a Satz 1 AIA).
Diese Verpflichtung gilt nicht für Anbieter von ausgenommenen Open-Source-Modellen im Sinne des Art. 2 Abs. 12 AIA, ausgenommen es handelt sich um ein GPAI-Modell mit systemischem Risiko.
Auf Anfrage einer zuständigen Behörde bzw. des AI Office haben Anbieter von GPAI-Modellen die oben bezeichnete technische Dokumentation zur Verfügung zu stellen (Art. 53 Abs. 1 Buchstabe a Satz 2 AIA).
Ganz allgemein gilt, dass Anbieter von GPAI-Modellen „bei der Ausübung ihrer Zuständigkeiten und Befugnisse gemäß dieser Verordnung“ mit den zuständigen nationalen Behörden, erforderlichenfalls auch mit der Kommission, zusammenzuarbeiten haben (siehe Art. 53 Abs. 3 AIA).
Anbieter von GPAI-Modellen haben für nachgelagerte Anbieter von KI-Systemen, die beabsichtigen dieses Modell in ihre KI-Systeme zu integrieren, bestimmte Informationen und Dokumentationen zu erstellen und aktualisieren sowie den Anbietern von KI-Systemen zur Verfügung stellen. Die technische Dokumentation hat die in Anhang XII genannten Mindestangaben zu erfüllen.
Diese Informationen und Dokumentation muss Anbieter von KI-Systemen in die Lage versetzen, die Fähigkeiten und die Grenzen des GPAI-Modells „gut zu verstehen“ und sie auch befähigen, dass sie ihren Pflichten des AI Act nachkommen können (Art. 53 Abs. 1 Buchstabe b AIA)
Diese Verpflichtung gilt nicht für Anbieter von ausgenommenen Open-Source-Modellen im Sinne des Art. 2 Abs. 12 AIA, ausgenommen es handelt sich um ein GPAI-Modell mit systemischem Risiko.
Anbieter von GPAI-Modellen haben eine Strategie zur Einhaltung des EU-Urheberrechts samt damit zusammenhängender Rechte auch durch modernste Technologien vorzubringen. Das schließt im Besonderen die Ermittlung und Einhaltung eines gemäß Art. 4 Abs. 3 Urheberrechterichtlinie geltend gemachten Rechtsvorbehalts ein (siehe Art. 53 Abs. 1 Buchstabe c AIA).
Anmerkung: Mit Art. 3 Urheberrechterichtlinie (Richtlinie (EU) 2019/790) wird normiert, dass Text- und Data Mining („TDM“) grundsätzlich betrieben werden darf. Dieses Recht kann durch einen Vorbehalt der Rechteinhaber gemäß Art. 4 Abs. 3 Urheberrechterichtlinie aber derart eingeschränkt werden, sodass nur mehr Forschungseinrichtungen und Einrichtungen des Kulturerbes TDM zulässig betreiben können.
Bei TDM handelt es sich um einen Sammelbegriff für verschiedene Verfahren, die es ermöglichen, große Mengen von Texten oder Daten unter verschiedenen Aspekten zu durchsuchen und auszuwerten. In Österreich ist dies in § 42h UrhG umgesetzt. Ferner sind die für das Training des GPAI-Modells verwendeten Inhalte nach einer vom AI Office bereitgestellten Vorlage zur veröffentlichen (siehe Art. 53 Abs. 1 Buchstabe d AIA).
Ist der Anbieter eines GPAI-Modells in einem Drittstaat niedergelassen, ist der Anbieter verpflichtet, vor Inverkehrbringen des Modells einen Bevollmächtigten innerhalb der Union zu benennen (siehe Art. 54 AIA).
Handelt es sich beim GPAI-Modell um ein solches mit systemischem Risiko haben Anbieter zusätzlich zu den in Art. 53 und 54 AIA genannten Pflichten auch jene des Art. 55 AIA zu erfüllen:
Unter dem Titel „Risikomanagement“ können die Pflichten gemäß Art. 55 Abs. 1 Buchstabe a und b zusammengefasst werden. Demnach haben Anbieter von GPAI-Modellen eine Modellevaluierung nach standardisierten Protokollen und Instrumenten vorzunehmen. Dies umfasst auch die Durchführung und Dokumentation von Angriffstest, um systemische Risiken zu ermitteln und zu mindern. Darüber hinaus sind ganz generell mögliche systemische Risiken auf Unionsebene – einschließlich ihrer Ursachen –, die sich aus der Entwicklung, dem Inverkehrbringen oder der Verwendung von GPAI-Modellen mit systemischem Risiko ergeben können, zu bewerten und zu mindern.
Schwerwiegende Vorfälle sind zu dokumentieren und unverzüglich ans AI Office und gegebenenfalls an die zuständigen nationalen Behörden zu melden.
Anbieter von GPAI-Modellen haben ein „angemessenes Maß“ an Cybersicherheit und die physische Infrastruktur des Modells zu gewährleisten (siehe Art. 55 Abs. 1 Buchstabe d AIA). Beim Schutz der Cybersicherheit im Zusammenhang mit systemischen Risiken, die mit böswilliger Nutzung oder böswilligen Angriffen verbunden sind, sollte der unbeabsichtigte Modelldatenverlust, die unerlaubte Bereitstellung, die Umgehung von Sicherheitsmaßnahmen und der Schutz vor Cyberangriffen, unbefugtem Zugriff oder Modelldiebstahl gebührend beachtet werden.
Dieser Schutz könnte durch die Sicherung von Modellgewichten, Algorithmen, Servern und Datensätzen erleichtert werden, z. B. durch Betriebssicherheitsmaßnahmen für die Informationssicherheit, spezifische Cybersicherheitsstrategien, geeignete technische und etablierte Lösungen sowie Kontrollen des physischen Zugangs und des Cyberzugangs, die den jeweiligen Umständen und den damit verbundenen Risiken angemessen sind (siehe Erwägungsgründe 115).
Bei Hochrisiko-KI-Systemen, bei denen es sich um Sicherheitsbauteil von Produkten handelt, die unter die in Anhang I Abschnitt A aufgeführten Harmonisierungsrechtsvorschriften der Union fallen, gilt gemäß Art. 25 Abs. 3 AIA der Produkthersteller als Anbieter des Hochrisiko-KI-Systems und unterliegt in den beiden nachfolgenden Fällen den Pflichten eines Anbieter gemäß Art. 16 AIA: