Themenbild Services der RTR

FAQ

Inhaltsverzeichnis

Was macht die KI-Servicestelle der RTR?

Die KI-Servicestelle bei der RTR, gilt als Ansprechpartner und Informationshub und steht dem österreichischen KI-Ökosystem bei der Vorbereitung auf den europäischen AI Act zur Verfügung. Folgende Aufgaben sind dabei im Mittelpunkt:

  • Ein niedrigschwellig zugänglicher Service zu Information und Unterstützung über regulatorische Rahmenbedingungen beim Einsatz und der Entwicklung von KI;
  • Die Förderung des Wissensaufbaus und des Wissensaustauschs zu KI, auch durch Fachveranstaltungen und Studien;
  • Unterstützung für Medienunternehmen, um sie beim verantwortungsvollen und kontrollierten Einsatz von KI-Systemen zu begleiten;
  • Die Betreuung des hochkarätig besetzten KI-Beirats, der die KI-Servicestelle und die Bundesregierung zu aktuellen Entwicklungen bei KI berät.

Wir empfehlen Ihnen, das Informationsangebot der KI-Servicestelle bei der RTR in Anspruch zu nehmen.

Zurück zum Inhaltsverzeichnis

Warum wird KI reguliert?

Künstliche Intelligenz entwickelt sich rasch weiter und betrifft auch sensible Bereiche wie Gesundheit, Sicherheit und Grundrechte. Mit dem AI Act („Gesetz über Künstliche Intelligenz“) führt die EU umfassende gesetzliche Regelungen ein, um die Risiken in diesen Bereichen zu minimieren. Darüber hinaus soll der AI Act die Rechtsstaatlichkeit, die Demokratie und die Umwelt schützen.

Weiteres Ziel des AI Act ist es, einheitliche Regelungen für Betroffene in der gesamten EU zu schaffen. Dabei sollen auch Rechtsunsicherheiten aus dem Weg geräumt werden, um Unternehmen zu motivieren, sich durch künstliche Intelligenz an Fortschritt und Innovation zu beteiligen. 

Zurück zum Inhaltsverzeichnis

Für wen gilt die KI-Regulierung?

Der AI Act wurde als Verordnung erlassen und ist damit direkt in den Mitgliedstaaten anwendbar und reguliert sowohl den privaten als auch den öffentlichen Sektor. Betroffen sind Unternehmen in und außerhalb der EU, wenn sie KI-Systeme oder KI-Modelle in der Union in Verkehr bringen oder Menschen in der EU davon betroffen sind. Das reicht von reinen Anbietern von Tools, die auf künstliche Intelligenz zurückgreifen, bis zu Entwicklern von KI-Systemen mit hohem Risiko.  

Mehr zu den Akteuren im AI Act

Zurück zum Inhaltsverzeichnis

Ab wann gilt der AI Act?

Nach seiner Annahme durch das Europäische Parlament und den Rat wird der AI Act am zwanzigsten Tag nach seiner Veröffentlichung im Amtsblatt in Kraft treten. Es wird dann 24 Monate nach dem Inkrafttreten in vollem Umfang anwendbar sein, wobei das folgende abgestufte Verfahren gilt:

  • 6 Monate nach Inkrafttreten: Verbotene Praktiken dürfen nicht mehr angewandt werden;
  • 12 Monate: Die Verpflichtungen in Bezug auf “General Purpose AI“ werden anwendbar;
  • 24 Monate: Alle weiteren Vorschriften des AI Acts werden anwendbar, einschließlich der Verpflichtungen für Hochrisikosysteme, die in Anhang III (Liste der Anwendungsfälle mit hohem Risiko) festgelegt sind. Jene gemäß Anhang II sind zu diesem Zeitpunkt noch ausgenommen;
  • 36 Monate: Die Verpflichtungen für Hochrisikosysteme gemäß Anhang II (Liste der Harmonisierungsrechtsvorschriften der Union) werden anwendbar.

Mehr zum zeitlichen Rahmen des AI Act 

Zurück zum Inhaltsverzeichnis

In welche vier Risikostufen werden KI-Systeme eingeteilt?

  • Inakzeptables Risiko
  • Hohes Risiko
  • Begrenztes Risiko
  • Minimales oder kein Risiko 

Mehr zu den Risikostufen von KI-Systemen

Zurück zum Inhaltsverzeichnis

Wie bestimme ich das Risiko eines KI-Systems?

Die Einstufung hängt vom Verwendungszweck und den Anwendungsmodalitäten des KI-Systems ab. Im AI Act werden die verbotenen Praktiken und Anwendungsfälle von Hochrisiko-KI-Systeme (Anhang I und III) abschießend angeführt. Die EU-Kommission ist dazu ermächtigt, die Liste der Hochrisiko-KI-Systeme zu erweitern. Sie trägt dabei den Markt- und technologische Entwicklungen Rechnung und achtet auf Kohärenz. Immer als hochriskant gelten KI-Systeme, welche Profiling durchführen, das heißt das Erstellen von Persönlichkeitsprofilen natürlicher Personen.

Zurück zum Inhaltsverzeichnis

Welche Verpflichtungen treffen Anbieter von Hochrisiko-KI-Systemen?

Die Person, Behörde, Einrichtung oder sonstige Stelle, die ein Hochrisiko-KI-System entwickelt oder entwickeln lässt und diese auch unter ihrem eigenen Namen oder ihrer eigenen Marke in Verkehr bringt oder in Betrieb nimmt, treffen die umfangreichsten Verpflichtungen. Sie haben sicherzustellen, dass die an Hochrisiko-KI-Systeme gestellten Anforderungen erfüllt sind. Zu den Verpflichtungen zählen unter anderem:

  • Einrichtung von Risikomanagementsystemen;
  • Erfüllen der Anforderungen an die Data Governance;
  • Dokumentationspflichten in technischer Hinsicht;
  • Aufzeichnungspflichten;
  • Transparenzpflichten in Bezug auf Anwender:innen;
  • Ausreichende Implementierung menschlicher Überwachungstools;
  • Sicherstellung der Genauigkeit, Robustheit und Cybersicherheit. 

Mehr über die Anbieterverpflichtungen

Zurück zum Inhaltsverzeichnis

Wie wird der AI Act durchgesetzt?

Jeder Mitgliedstaat errichtet oder benennt mindestens eine notifizierende Behörde und mindestens eine Marktüberwachungsbehörde für die Zwecke dieser Verordnung als zuständige nationale Behörden. Diese nationalen zuständigen Behörden üben ihre Befugnisse unabhängig, unparteiisch und unvoreingenommen aus.  

Darüber hinaus wurde durch die Kommission ein neues Europäisches AI Office innerhalb der Kommission eingerichtet, das General Purpose AI-Modelle überwachen soll.

Ferner wird es auch ein AI Board, ein Scientific Panel und ein Advisory Forum geben, denen beratende und unterstützende Funktion zukommen soll.

Mehr zu den Behörden und Einrichtungen auf EU-Ebene

Zurück zum Inhaltsverzeichnis

Welche Sanktionen sind bei Verstößen vorgesehen?

Für den Fall, dass KI-Systeme in Verkehr gebracht oder in Betrieb genommen werden, die den Anforderungen der Verordnung nicht genügen, müssen die Mitgliedstaaten wirksame, verhältnismäßige und abschreckende Sanktionen, einschließlich Geldbußen, festlegen und diese der Kommission mitteilen.

Dafür werden in der Verordnung bestimmte Schwellenwerte festgelegt:

  • bis zu 35 Mio. EUR oder 7 Prozent des gesamten weltweiten Vorjahresumsatzes (je nachdem, welcher Wert höher ist) bei Verstößen durch verbotene Praktiken oder Verletzungen von Datenanforderungen;
  • bis zu 15 Mio. EUR oder 3 Prozent des gesamten weltweiten Vorjahresumsatzes bei Verstößen gegen andere Anforderungen oder Verpflichtungen aus der Verordnung, auch bei Verletzungen der Vorschriften für General Purpose AI Models;
  • bis zu 7,5 Mio. EUR oder 1,5 Prozent des gesamten weltweiten Vorjahresumsatzes bei falschen, unvollständigen oder irreführenden Angaben in angeforderten Auskünften an benannte Stellen und zuständige nationale Behörden;
  • Bei allen Kategorien von Verstößen wäre der Schwellenwert jeweils der niedrigere der beiden Beträge für KMU und der höhere für andere Unternehmen.

Zur Harmonisierung der nationalen Vorschriften und Verfahren bei der Festsetzung von Geldbußen wird die Kommission anhand von Empfehlungen des Ausschusses Leitlinien ausarbeiten.

Da die Organe, Einrichtungen und sonstigen Stellen der EU mit gutem Beispiel vorangehen sollten, werden auch sie den Vorschriften und möglichen Sanktionen unterworfen. Der bzw. die Europäische Datenschutzbeauftragte wird befugt sein, Geldbußen gegen sie zu verhängen.

Zurück zum Inhaltsverzeichnis

Ich bin von einem Verstoß gegen die Vorschriften betroffen. Was kann ich tun?

Der AI Act sieht das Recht von natürlichen und juristischen Personen vor, bei einer nationalen Behörde Beschwerde einzulegen. Auf dieser Grundlage können nationale Behörden eine Marktüberwachung nach den Verfahren der Marktüberwachungsverordnungen einleiten.

Darüber hinaus soll die vorgeschlagene KI-Haftungsrichtlinie den Personen, die Entschädigungen für durch Hochrisiko-KI-Systeme verursachte Schäden beantragen wollen, wirksame Mittel an die Hand geben, um möglicherweise haftende Personen zu ermitteln und einschlägige Beweise für eine Schadensersatzklage zu sichern. Dazu sieht die vorgeschlagene Richtlinie die Offenlegung von Nachweisen über bestimmte Hochrisiko-KI-Systeme vor, bei denen der Verdacht besteht, dass sie Schäden verursacht haben.

Überdies wird die derzeit in Überarbeitung befindliche Produkthaftungsrichtlinie dafür sorgen, dass Personen, die in der Union durch ein fehlerhaftes Produkt getötet oder verletzt werden oder Sachschäden erleiden, eine Entschädigung erhalten. Es wird klargestellt, dass KI-Systeme und Produkte, die ihrerseits KI-Systeme enthalten, ebenfalls unter die bestehenden Vorschriften fallen.


Zurück zum Inhaltsverzeichnis

Müssen alle Mitarbeitenden geschult werden oder ausschließlich jene, die direkt mit KI-Systemen arbeiten?

Mit Art. 4 AIA werden Betreiber und Anbieter verpflichtet, „Maßnahmen“ zu ergreifen, damit alle Personen im Unternehmen, aber auch Dritte, wie Dienstleister des Unternehmens über KI-Kompetenz verfügen, sofern sie am Einsatz von KI im Unternehmen mitwirken.

Betroffen von der Verpflichtung zu KI-Kompetenz sind damit folgende Personengruppen:

  • Mit der Entwicklung von KI betrauten Personen
  • Mit dem Betrieb von KI-Systemen betraute Personen
  • Personen innerhalb eines Unternehmens, die KI-Systeme einsetzen.

Der konkrete Inhalt hängt vom eingesetzten KI-System oder KI-Modell und dessen Risikostufe ab sowie von den technischen Kenntnisse der Mitarbeiter:innen, ihre Erfahrung, ihre Ausbildung und Schulung sowie der Kontext, in dem die KI-Systeme eingesetzt werden sollen. Für Führungskräften, Projektteams oder Auszubildenden wird es unterschiedliche Anforderungen geben.

Zurück zum Inhaltsverzeichnis

Gibt es spezifische Mindestanforderungen an die Schulungsinhalte (z. B. technische oder regulatorische Aspekte)?

Spezifische Mindestanforderungen sieht der AI Act nicht vor, dennoch können Inhalte von zu vermittelnden Kompetenzen etwa sein:

  • Kenntnis der jeweiligen Unternehmensstrategie, sowie angrenzender Richtlinien, sowie der Ansprechpersonen
  • Basiswissen digitaler Kompetenz, etwa nach DigiComp 2.3 AT (https://www.digitalekompetenzen.gv.at/kompetenzen/Kompetenzmodell.html)
    • Digitalisierung in der Arbeitswelt
    • Informationen suchen und kritisch hinterfragen
    • Digitale Technologien für den Arbeitsalltag nutzen
  • Verständnis von KI und deren Anwendungsbereich
    • Funktionsweise und Beispiele für KI-Einsatz
    • Innovationsmöglichkeiten durch KI, einhergehende Arbeitserleichterungen
    • Besonderheiten der Arbeitsweise von KI, insbesondere etwa hinsichtlich Bias, Halluzinationen, Bedeutung von Trainingsdaten
  • Hinweise zur Nutzung der konkret im Unternehmen eingesetzten KI-Systeme
  • Nutzerschulungen, Möglichkeiten zum Erfahrungsaustausch, unternehmensinterne Best Practices
  • Etwa: Prompting-Workshops beim Einsatz von Text-KI
  • Für verbreitete KI-Systeme bietet hier die Wirtschaftskammer eine gute Übersicht: https://www.wko.at/digitalisierung/ki-loesungen-fuer-die-praxis
  • Ethische Aspekte
  • Rechtliche Aspekte
    • Kenntnis der relevanten Aspekte aus Datenschutz, Patientenrechte, Arbeitsrecht, Urheberrecht, etc. 

Best Practices sind etwa:

  • Regelmäßig wiederkehrende Erhebung von eingesetzten KI-Systemen. Regelmäßige Re-Evaluierung von potentiellen KI-Use-Cases basierend auf dem Stand der Technik.
  • Interdisziplinare Beobachtung durch Vertreter:innen aus Technik, Recht, Compliance, IT-Security, Human Ressources und Betriebsrat – abhängig von der Unternehmensgröße. 

Praxisorientiertes Lernen: Regelmäßiges Testen und Evaluieren neuer Systeme in Hinblick auf unternehmensinterne Use-Cases und Feedback einholen "KI-Kompetenz" wird Begriffsbestimmungen in Art 3 Ziffer 56 AIA nochmals näher umschrieben.

Zurück zum Inhaltsverzeichnis

Was heißt KI-Kompetenz?

Mit 02.02.2025 gelangen die ersten Bestimmungen des AI Act zur Anwendung, darunter auch die KI-Kompetenz gemäß Art. 4 AIA. Gemäß Art. 4 AIA gilt dann ohne Unterscheidung nach KI-Systeme, -Modelle oder Risikoklassen folgende Verpflichtung:

Art. 4 AIA: Die Anbieter und Betreiber von KI-Systemen ergreifen Maßnahmen, um nach besten Kräften sicherzustellen, dass ihr Personal und andere Personen, die in ihrem Auftrag mit dem Betrieb und der Nutzung von KI-Systemen befasst sind, über ein ausreichendes Maß an KI-Kompetenz verfügen, wobei ihre technischen Kenntnisse, ihre Erfahrung, ihre Ausbildung und Schulung und der Kontext, in dem die KI-Systeme eingesetzt werden sollen, sowie die Personen oder Personengruppen, bei denen die KI-Systeme eingesetzt werden sollen, zu berücksichtigen sind.

Der im Normtext und auch in der Überschrift des Art 4 AIA enthaltene Begriff "KI-Kompetenz" wird mit jener der Begriffsbestimmungen in Art 3 Ziffer 56 AIA nochmals näher umschrieben. In der Folge werden die Zusammenhänge und Unterschiede dieser beiden Vorschriften beschrieben.

Gemäß Art. 3 Ziffer 56 AIA ist "KI-Kompetenz"

die Fähigkeiten, die Kenntnisse und das Verständnis, die es Anbietern, Betreibern und Betroffenen unter Berücksichtigung ihrer jeweiligen Rechte und Pflichten im Rahmen dieser Verordnung ermöglichen, KI-Systeme sachkundig einzusetzen sowie sich der Chancen und Risiken von KI und möglicher Schäden, die sie verursachen kann, bewusst zu werden

Mit KI-Kompetenz wird abstrakt umschrieben, was notwendig ist, um in der digitalen Welt unter dem Einsatz von KI-Systemen erfolgreich agieren zu können.

Zurück zum Inhaltsverzeichnis

Werden bestimmte Zertifizierungen oder Nachweise für die Schulung anerkannt?

Derzeit gibt es noch keine Zertifizierungen für die Schulungen. Sofern harmonisierte Normen oder Standards zu KI-Kompetenz entwickelt werden, finden Sie mehr Informationen auf den Seiten der ISO und CENCENELEC.

Zurück zum Inhaltsverzeichnis

Sind interne Schulungsmaßnahmen durch qualifizierte Mitarbeitende ausreichend?

Über die Art und Weise der zu treffenden Schulungsmaßnahmen bleibt der AI Act offen. Diese kann durch interne Fortbildungen, externe Beratungen oder interne Schulungen erfolgen. Schulungen können auf freiwilliger oder verpflichtender Basis angeboten werden. Die Möglichkeit der Inanspruchnahme wiederkehrender Schulungen bietet zusätzliche Chancen für Mitarbeiter:innen. Auch interne Schulungsmaßnahmen können damit ausreichend sein.

Zurück zum Inhaltsverzeichnis

Welche Nachweise müssen für interne Schulungen erbracht werden, damit diese gültig sind?

Es ist zu empfehlen zu notieren, welche Mitarbeiter(gruppe) wann und wie oft zu welchen Themen von wem geschult wurde. Konkrete Anforderungen zu Nachweisen gibt es noch nicht.

Zurück zum Inhaltsverzeichnis

Welche Unterlagen müssen zur Nachweiserbringung vorgehalten werden?

Um eine Umsetzung des Artikel 4 AIA belegen zu können, empfiehlt sich das Anlegen von Dokumentation. Eine KI-Strategie des Unternehmens sollte schriftlich vorliegen. Auch eine ggf interne KI-Richtlinie sollte schriftlich vorliegen und unternehmensintern einfach abrufbar sein. Muster-KI-Richtlinien werden etwa von der WKO angeboten (https://www.wko.at/ki). Ein Schulungs- und Wissensvermittlungskonzept sollte erarbeitet sein. Wurden Schulungen durchgeführt, kann eine Beschreibung von Schulungsinhalt, Zeitpunkt und Schulungsteilnehmer:innen sinnvoll sein.

Gibt es einen konkreten, offiziellen Zeitplan für die schrittweise Umsetzung der Anforderungen?

Den detaillierten Zeitplan, welche Vorschriften wann anwendbar sind, finden sie auch auf unserer Website: https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/Zeitplan.de.html


Zurück zum Inhaltsverzeichnis

Bis wann müssen Unternehmen die einzelnen Maßnahmen vollständig umgesetzt haben?

6 Monate nach Inkrafttreten des AI Act (sohin der 2.2.2025) gelten die Regelungen zu KI-Kompetenz ("Literacy"). Das heißt, Anbieter und Betreiber von KI-Systemen sind verpflichtet, Maßnahmen zu ergreifen, dass ihr Personal und andere Personen, die in ihrem Auftrag mit dem Betrieb und der Nutzung von KI-Systemen befasst sind, ausreichende Kenntnisse aufweisen.

Den detaillierten Zeitplan, welche Vorschriften wann anwendbar sind, finden sie auch auf unserer Website: https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/Zeitplan.de.html.

Zurück zum Inhaltsverzeichnis

Werden Übergangsfristen für Unternehmen eingeräumt?

Die Verpflichtungen des AI Act müssen nach und nach umgesetzt werden. Den detaillierten Zeitplan, welche Vorschriften wann anwendbar sind, finden sie auch auf unserer Website: https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/Zeitplan.de.html .

Zurück zum Inhaltsverzeichnis

Welche Strafen drohen bei einem Nicht-Einhalten von Art 4 AI Act ("KI-Kompetenz")?

In Bezug auf Sanktionierungen sieht der AI Act selbst keine verwaltungsstrafrechtliche Sanktionierung des Art. 4 AIA vor. Es können sich in verschiedenen Konstellationen Konsequenzen einer Nicht-Einhaltung manifestieren. Fehlende Mitarbeiterschulungen sind idR auch außerhalb des AI Acts nach § 1313a ABGB dem Unternehmer zurechenbar. Der Art. 4 AI Act stellt hier eine Präzisierung der unternehmerischen Sorgfaltspflichten in Hinblick auf KI dar. Entstehen demnach Schäden, die durch fehlende KI-Kompetenz verursacht wurden, präzisiert der Art. 4 AIA, dass eine Pflicht zur Schulung bestanden hätte.

Allgemein zum Thema Sanktionen im Rahmen des AI Acts finden Sie auf unserer Website.

Zurück zum Inhaltsverzeichnis

Ich möchte selbst Schulungen für Art 4 AI Act ("KI-Kompetenz") anbieten. Welche Voraussetzungen muss ich dafür erfüllen? Wo kann ich mich zertifizieren lassen?

Derzeit gibt es noch keine Zertifizierungen für die Schulungen. Eine dem AI Act entsprechende Zertifizierung ist deshalb nicht möglich.

Zurzeit sind diverse Standards in Entwicklung, die allerdings nicht unmittelbar den Art 4 AI Act betreffen. Die aktuellen Standardisierungsprogramme finden Sie im Workprogramme auf folgenden Seiten der ISO und CENCENELEC.

Auch gibt es noch keine Leitlinien der Europäischen Kommission zu Mindestinhalten zu Schulungen. Welche Inhalte im Rahmen von KI-Kompetenz an Unternehmen vermittelt werden sollen, wird weiters vom konkreten Einsatzzweck im Unternehmen abhängen.

Zurück zum Inhaltsverzeichnis

Brauche ich einen "KI-Beauftragten" im Unternehmen?

Der AI Act verpflichtet nicht dazu, einen KI-Beauftragten zu bestellen oder eine KI-Rechtsvertretung zu beauftragen. Er verpflichtet aber unabhängig von der Risikostufe Anbieter und Betreiber von KI-Systemen dazu, Maßnahmen zu ergreifen, dass ihr Personal und andere Personen, die in ihrem Auftrag mit dem Betrieb und der Nutzung von KI-Systemen befasst werden, ausreichende Kompetenzen darin haben.

Zurück zum Inhaltsverzeichnis

Was versteht man unter maschinellem Lernen (Machine Learning)?

Von maschinellem Lernen (Machine Learning) spricht man dann, wenn Algorithmen die Fähigkeit besitzen, ihre Leistung bei der Lösung von Problemen mit immer mehr Erfahrung oder Daten zu verbessern. Die Wurzeln des maschinellen Lernens liegen in der Statistik. Was den Prozess des Lernens betrifft, lassen sich unterschiedliche Formen von maschinellem Lernen unterscheiden.

Überwachtes Lernen (Supervised Learning) benötigt für das Training einen mit sogenannten Labeln gekennzeichneten Datensatz. Eine Anwendung ist die Krebsdiagnostik, wo mittels maschinellem Lernen Röntgenbilder ausgewertet werden. Vereinfacht gesagt besteht hier der Trainingsdatensatz aus Röntgenbildern, die zuvor von medizinischem Fachpersonal mit den Labeln "Krebs" bzw. "Kein Krebs" versehen wurden. Beim Training erkennt das KI-Modell dann durch Mustererkennung in den Bilddaten, welche Merkmale typisch für bösartige und welche für gutartige Gewebe sind. Dieses gelernte Wissen kann das KI-Modell dann auf neue Röntgenbilder anwenden. Überwachtes Lernen kommt also für solche Aufgaben in Frage, wo es eine korrekte Antwort bzw. ein Label gibt und die Aufgabe des Algorithmus für maschinelles Lernen besteht darin, ein Modell zu finden, das dies auf der Grundlage der Eingabedaten vorhersagt.

Im Unterschied dazu kann unüberwachtes Lernen (Unsupervised Learning) für Aufgaben verwendet werden, wo eine Struktur in Eingabedaten erkannt werden soll. So können etwa Cluster von Elementen identifiziert werden, die einander ähnlich sind, sich aber von den Daten in anderen Clustern unterscheiden. Ein Anwendungsbeispiel ist die Anomalieerkennung in Maschinendaten, wo ein Fertigungsunternehmen Ausfälle oder ungewöhnliches Verhalten in seinen Produktionsmaschinen frühzeitig erkennen möchte, um Wartungen rechtzeitig durchzuführen und Produktionsausfälle zu vermeiden. Der Trainingsdatensatz besteht aus verschiedenen Sensordaten der Maschinen, die während des normalen Betriebs gesammelt werden. Dabei werden diese Sensordaten ohne spezifische Labels gesammelt. Durch die Anwendung spezieller Algorithmen lernt das KI-Modell Muster des normalen Maschinenbetriebs und identifiziert Datenpunkte, die stark von diesen Normalwerten abweichen.

Von bestärkendem bzw. verstärkendem Lernen (Reinforcement Learning) spricht man, wenn das KI-Modell durch Interaktionen mit einer Umgebung lernt und Belohnungen oder Strafen basierend auf seinen Aktionen erhält. Dies ist besonders nützlich für Aufgaben, bei denen unmittelbares Feedback verfügbar ist, wie zum Beispiel in Computerspielen oder bei der Robotersteuerung.

Zurück zum Inhaltsverzeichnis

Was versteht man unter Deep Learning und was sind neuronale Netzwerke?

Deep Learning ist ein spezieller Teilbereich des maschinellen Lernens. Hier sind künstliche neuronale Netzwerke in der Lage, aus riesigen Mengen unstrukturierter Daten zu lernen und komplexe Muster zu erkennen. Das Training stellt hohe Anforderungen an die Rechenleistung.

Die künstlichen neuronalen Netze bestehen aus künstlichen Neuronen, deren Aufbau von biologischen Neuronen inspiriert ist. Die künstlichen Neuronen sind in hierarchischen Schichten angeordnet, die untereinander verbunden sind. Die Architektur beinhaltet eine Eingabeschicht, mehrere versteckte Schichten (hidden layers) und eine Ausgabeschicht. Die zahlreichen Schichten können es schwierig machen, die Entscheidungsfindung des KI-Modells nachzuvollziehen. Von der Verwendung tiefer (mehrschichtiger) neuronaler Netzwerke leitet sich auch die Bezeichnung "Deep" Learning ab.

Typische Anwendungsbereiche sind die Spracherkennung bei der automatischen Übersetzung, bei der Umwandlung von gesprochener Sprache in Text oder in Sprachassistenten (z.B. Siri oder Alexa). Weitere Beispiele sind die Vorhersage von Markttrends im Finanzsektor und das autonome Fahren. Deep Fakes sind mittels Deep Learning erstellte oder manipulierte Videos, Audioaufnahmen oder Bilder, die wirklichen Personen, Gegenständen, Orten, Einrichtungen oder Ereignissen ähneln und einer Person fälschlicherweise als echt oder wahrheitsgemäß erscheinen würden. Der Begriff Deep Fake selbst ist eine Kombination aus "Deep Learning" und "Fake".

Deep Learning ist also eine leistungsstarke und hochentwickelte Technologie mit einem breiten Anwendungsspektrum. Allerdings bringt es auch Herausforderungen in Bezug auf Daten- und Rechenanforderungen sowie die Erklärbarkeit und Nachvollziehbarkeit der Modelle mit sich.

Zurück zum Inhaltsverzeichnis

Was ist ein "KI-System"?

Für die rechtliche Behandlung von Künstlicher Intelligenz ist die gesetzliche Definition des AI Act von Relevanz. Sie stellt das Einfallstor zum Anwendungsbereich der Verordnung dar. Diese Definition lautet gemäß Art. 3 Ziffer 1 AIA wie folgt:

"KI-System" ein maschinengestütztes System, das für einen in unterschiedlichem Grade autonomen Betrieb ausgelegt ist und das nach seiner Betriebsaufnahme anpassungsfähig sein kann und das aus den erhaltenen Eingaben für explizite oder implizite Ziele ableitet, wie Ausgaben wie etwa Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen erstellt werden, die physische oder virtuelle Umgebungen beeinflussen können.

KI-Systeme, sind Computersysteme, die in der Lage sind, Aufgaben auszuführen, die normalerweise menschliche Intelligenz erfordern. Diese Systeme können Informationen verarbeiten, Muster erkennen, Schlussfolgerungen ziehen und sogar lernen, um ihre Leistung zu verbessern. KI-Systeme basieren auf Algorithmen und Daten, die es ihnen ermöglichen, komplexe Probleme zu lösen und Entscheidungen zu treffen. Beispiele für KI-Systeme sind Chatbots, Gesichtserkennungstechnologien, selbstfahrende Autos und personalisierte Empfehlungssysteme. Die Intention des Unionsgesetzgebers ist nicht, einfachere traditionelle Softwareanwendungen oder Programmieransätze zu erfassen, welche auf ausschließlich von natürlichen Personen definierten Regeln zur automatischen Ausführung von Vorgängen beruhen.

Zurück zum Inhaltsverzeichnis

Was ist generative KI?

Generative KI sind KI-Systeme, die es ermöglichen, basierend auf Nutzereingaben neue entsprechende Informationen, einschließlich Text, Audio und Bilder, zu erzeugen. Durch den weiten Anwendungsbereich werden derartige KI-Systeme in den verschiedensten Kontexten verwendet, wie z. B. für Übersetzungen, bei der Beantwortung von Fragen und bei Chatbots.

Zurück zum Inhaltsverzeichnis

Was ist ein "Prompt"?

Der englische Begriff "Prompt" wird in der IT als Anweisung an eine:n Nutzer:in zur Vornahme einer Eingabe bezeichnet. Generative KI funktioniert durch die Eingabe von "Prompts". Um ein Bild, Text oder Video zu generieren (Output), braucht das KI-System eine Eingabe (Input). Je nach KI-System kann ein Prompt text-, bild- oder audiobasiert sein. Ein textbasierter Prompt kann aus Wörtern, Sonderzeichen und Zahlen bestehen wie z. B.: "Ein Bild mit 3 Katzen, die auf der Fensterbank sitzen und schlafen." 

Die Bedeutung der Prompts hat schon zur Entwicklung von Prompt-Marktplätzen geführt.

Zurück zum Inhaltsverzeichnis

Was ist ein "RAG"-System und wie funktioniert es?

Die Abkürzung "RAG" steht für Retrieval-Augmented-Generation. Bei RAG-Systemen werden zwei Techniken miteinander kombiniert, und zwar der Informationsabruf (Information Retrieval) und die Generierung von Text (Generation). Dadurch können Large Language Models (LLMs) um eine zusätzliche externe Wissensquelle (z. B. eine Datenbank) erweitert werden, ohne dass das LLM aufwändig neu mit diesen zusätzlichen Daten trainiert werden muss. Die Anfangsbuchstaben RAG stehen für die einzelnen Arbeitsschritte, die ein RAG-System durchläuft, um eine Antwort auf eine Benutzeranfrage zu generieren.

Für den Abruf (Retrieval) relevanter Informationen wird die jeweilige Anfrage mit der externen Wissensquelle abgeglichen. So ruft etwa das System auf die Frage "Wie ist die Budgetübersicht des letzten Quartals" die relevanten Dokumente der externen Wissensquelle (Quartalsberichte etc.) auf. Der nächste Schritt ist die Erweiterung (Augmentation) der Benutzeranfrage um die zuvor identifizierten relevanten Dokumente der externen Wissensquelle. Erst in dieser erweiterten Form wird die Anfrage dann an das LLM für die Generierung (Generation) der Antwort übergeben.

RAG-Systeme bieten Vorteile gegenüber reinen LLM-Systemen. So ist es nicht nötig, ein LLM aufwändig neu zu trainieren, wenn die Wissensbasis erweitert werden soll. Die Antworten eines RAG-Systems sind präziser und relevanter.  Zudem lassen sich durch die externe Wissensquelle sogenannten "Halluzinationen" eingrenzen, die unter anderem dann entstehen, wenn relevante Informationen nicht in der Wissensbasis des LLM-Systems vorhanden sind.

RAG-Systeme ermöglichen es etwa, interne Wissensbestände effizient zu durchsuchen und zu nutzen. Andere Anwendungsbeispiele für RAG-Systeme sind Chatbots im Kundensupport, Produktempfehlungen im Onlinehandel oder das Wissensmanagement in Unternehmen.

Zurück zum Inhaltsverzeichnis

Was sind Large Language Models (LLMs)?

"Large Language Models" sind computerlinguistische Sprachmodelle, die Texte generieren. Dabei wird in einem gegebenen Kontext das jeweils nächste Wort aufgrund einer vorher im Algorithmus definierten Wahrscheinlichkeit ausgewählt. "Groß" werden diese Modelle in Bezug auf den Umfang ihrer Trainingsdaten und die Anzahl der Parameter genannt. Überspitzt formuliert wird davon gesprochen, dass diese Modelle mit dem „gesamten Internet“ trainiert werden. 

LLMs basieren auf dem sogenannten Transformer Modell, einer besonderen Art des künstlichen neuronalen Netzes. Damit fallen sie in den Bereich des Deep Learning. Die Einsatzgebiete sind vielfältig: das Erstellen von Texten, die Beantwortung von Fragen (Chatbots, virtuelle Assistenten), das Generieren von Code, die Erstellung von Content für Marketing und Websites sowie die Übersetzung zwischen verschiedenen Sprachen, um nur einige Möglichkeiten aufzuzählen.  Zu den bekanntesten Beispielen für Large Language Models zählen die GPT-Modellreihe von OpenAI, Meta LLama oder die Mistral-Reihe der Firma Mistral AI. 

LLMs können unter Umständen zu den General Purpose AIs zählen. Auf jeden Fall ist zu beachten, dass sie nicht perfekt sind. Auch erfordern sie menschliche Überwachung, da sie manchmal Fehler machen können oder in Fragen der Ethik und Fairness Herausforderungen aufwerfen.

Zurück zum Inhaltsverzeichnis

Ist für das Trainieren von KI-Modellen stets eine große Menge an Daten notwendig?

Die benötigte Datenmenge für das Trainieren eines KI-Modells kann stark variieren und hängt von mehreren Faktoren ab. Es ist schwer, allgemeine Zahlen zu geben, da dies stark vom Anwendungsfall, der Komplexität des Modells und den spezifischen Anforderungen des Projekts abhängt. Dennoch können einige grobe Richtwerte und Beispiele hilfreich sein, um ein Gefühl dafür zu bekommen.

Eine Faustregel besagt, dass man mindestens 10 bis 100 Mal mehr Trainingsdatensätze als Modellparameter benötigt, um ein gut generalisierendes Modell zu trainieren.  Für eine einfache Aufgabe wie die E-Mail-Spam-Filterung, wo eine Klassifikation mit nur wenigen Klassen stattfindet, können einige hundert bis tausend E-Mails für das Training des Modells genügen.

Ein Beispiel für eine moderate Aufgabe ist die Klassifikation von handgeschriebenen Ziffern mit dem MNIST-Datensatz. Der Trainingsdatensatz besteht aus 60.000 Bildern von handgeschriebenen Ziffern (0-9), dazu kommt noch ein Testdatensatz mit 10.000 Bildern.

Komplexe Aufgaben können Datensätze in der Größe von Hunderttausenden bis Millionen an Trainingsdaten erfordern. Ein Beispiel dafür ist die Klassifikation von Objekten in hochauflösenden Bildern mittels Deep Learning und neuronalen Netzen. Ein konkretes Anwendungsbeispiel hierfür ist die Erkennung und Diagnose von Krankheiten auf medizinischen Bildern wie Röntgenaufnahmen, CT-Scans und MRT-Bildern.

Erheblich mehr Trainingsdaten werden von Large Language Models (LLMs) benötigt. Das von Meta als Open Source veröffentlichte LLama-3-Modell wurde mit 15T Token Text trainiert, das sind 15 Billionen Token (T steht hier für das englische "Trillion", also 1.000.000.000.000).

Bei der Entwicklung und dem Testen von autonom fahrenden Autos schließlich werden Petabytes an Daten ausgewertet, wie z. B. Tesla oder NVIDIA bekannt gegeben haben (1 Petabyte (PB) entspricht 1.000.000 Gigabyte (GB)).

Man sieht also, dass sich diese Frage nicht generell mit "Ja" oder "Nein" beantworten lässt und stehts vom konkreten Anwendungsfall anhängig ist.

Zurück zum Inhaltsverzeichnis

Was bedeutet es, wenn ein KI-System "halluziniert"?

Generiert ein KI-Modell Informationen, die nicht auf Trainingsdaten oder realen Fakten basieren, dann spricht man davon, dass es "halluziniert". Solche Halluzinationen kennt man besonders von Large Language Models (LLMs). Sie können wie echte, plausible Antworten erscheinen, sind aber in Wirklichkeit inkorrekt oder unzuverlässig. Dabei lassen sich abhängig vom Kontext der Anfrage unterschiedliche Formen von Halluzinationen unterscheiden. 

Je nachdem, ob die Bezugsgröße Daten sind, die dem KI-System zur Verfügung gestellt worden sind, oder reales, überprüfbares Wissen ist, spricht man im ersten Fall von Treue oder aber im zweiten Fall von Faktizität. Halluzinationen können grundsätzlich aus verschiedenen Gründen auftreten. Wenn die Trainingsdaten unvollständig, fehlerhaft oder verzerrt sind, kann das KI-Modell falsche Schlüsse ziehen.

Generative KI-Modelle, die aus Wahrscheinlichkeiten Vorhersagen machen, können halluzinieren, wenn sie versuchen, logische oder zusammenhängende Antworten zu geben. Die wahrscheinlichste Antwort muss nicht immer korrekt sein.

Wie lässt sich diesem Problem begegnen? Faktische Halluzinationen lassen sich durch Retrieval-Augmented-Generation (RAG) eingrenzen. Dabei wird eine zusätzliche externe Wissensquelle (z. B. eine Datenbank) hinzugefügt, aus der relevante Dokumente oder Informationen auf der Basis der jeweiligen Benutzeranfrage identifiziert und extrahiert werden. Diese Retrieval (Abruf-) Komponente ist die Basis für die nachfolgende Generation (Erzeugungs-) Komponente des RAG-Systems. Weitere Strategien sind verbesserte Trainingsdaten und die Entwicklung von Mechanismen, um generierte Informationen durch externe Quellen zu validieren und zu verifizieren.

Nicht zuletzt sind Bewusstseinsbildung und Schulung der Benutzer:innen wichtig. Es ist wichtig, die Antworten eines KI-Systems kritisch zu hinterfragen und, wenn möglich, mit verlässlichen Quellen zu validieren. Dies gilt insbesondere bei wichtigen oder sensiblen Informationen.

Zurück zum Inhaltsverzeichnis

Müssen Inhalte (Texte oder Bilder) gekennzeichnet werden, die mit einer generativen KI erstellt wurden?

Wenn Sie als Unternehmen eine am Markt angebotene KI nutzen, d. h. im Sinne des AI Act ("AIA") Betreiber und nicht Anbieter sind, gilt Folgendes: Unberührt von anderen unionsrechtlichen oder nationalen Transparenzpflichten, müssen Betreiber eines KI-Systems, das Bild-, Ton- oder Videoinhalte erzeugt oder manipuliert, die ein Deep-Fake sind, gemäß Art. 50 Abs. 4 AIA offenlegen, dass die Inhalte künstlich erzeugt oder manipuliert wurden. 

Ein "Deep Fake" im Sinne des AI Act ist ein durch ein KI erzeugter oder manipulierter Bild-, Ton- oder Videoinhalt, der wirklichen Personen, Gegenständen, Orten, Einrichtungen oder Ereignissen ähnelt und einer Person fälschlicherweise als echt oder wahrheitsgemäß erscheinen würde (siehe Art. 3 Ziffer 60 AIA). Z. B. ein Video einer politisch aktiven Person, welche ein Interview gibt und dies als echt erscheint, jedoch nicht ist.

Handelt es sich bei den erzeugten Bildern um keine "Deep Fakes", entstehen für Sie keine Transparenzpflichten, d. h., Sie müssen KI-generierte Bilder dann nicht als solche ausweisen. Auch für künstlerische, kreative, satirische oder fiktionale Darstellungen bestehen Ausnahmen von der Transparenzpflicht (Art. 50 Abs. 4 AIA).

Bei mit KI erzeugten und manipulierten Texten gelten die Transparenzpflichten nicht, wenn diese von einem Menschen überprüft wurden oder es einen redaktionellen Verantwortlichen gibt. Ist dies nicht der Fall und es sich um Texte von öffentlichem Interesse handelt, sind diese als KI-generiert offenzulegen.

Falls eine Kennzeichnung erforderlich ist, hat diese in klarer und eindeutiger Weise zu erfolgen und muss den geltenden Barrierefreiheitsanforderungen entsprechen (siehe Art. 50 Abs. 5 AIA).

Dabei ist auch zu beachten, dass der AI Act schrittweise seine Verpflichtungen entfaltet, er ist zwar bereits am 1. August 2024 in Kraft getreten, jedoch gibt es Übergangsregelungen. Die Bestimmungen zu Transparenzpflichten sind ab 2. August 2026 verpflichtend anzuwenden.

Zurück zum Inhaltsverzeichnis

Kann ich Anbieter sein, wenn ich ein KI-System für den rein internen Gebrauch entwickle?

Ein "Anbieter" ist laut Art. 3 Z. 3 AIA eine natürliche oder juristische Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI-System oder ein KI-Modell mit allgemeinem Verwendungszweck entwickelt oder entwickeln lässt und es unter ihrem eigenen Namen oder ihrer Handelsmarke in Verkehr bringt oder das KI-System unter ihrem eigenen Namen oder ihrer Handelsmarke in Betrieb nimmt, sei es entgeltlich oder unentgeltlich.

"Inbetriebnahme" ist gem. Art. 3 Z. 11 AIA die Bereitstellung eines KI-Systems in der Union zum Erstgebrauch direkt an den Betreiber oder zum Eigengebrauch entsprechend seiner Zweckbestimmung. 

Wenn ein Anbieter ein KI-System oder KI-Modell mit allgemeinem Verwendungszweck entwickelt oder entwickeln lässt und es zum Eigengebrauch in Betrieb nimmt, treffen ihn weiterhin die Anbieterpflichten. Auf eine "Benennung" des KI-Systems kommt es nicht an. 

Zurück zum Inhaltsverzeichnis

Gibt es bereits eine behördliche Zuständigkeit im Zusammenhang mit [Sektor]?

Die Benennung der national für die Umsetzung zuständigen Behörden hat im Wesentlichen bis 2.8.2025 zu erfolgen (https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/Zeitplan.de.html).

Derzeit gibt es noch keine nationale Umsetzung der Zuständigkeiten des AI Acts in Österreich. Das betrifft sowohl die Marktüberwachungsbehörden als auch die notifizierenden Behörde.

Zurück zum Inhaltsverzeichnis

Ich entwickle mein eigenes KI-System, dass ich danach auch ausschließlich intern einsetze. Das System wird nie für andere Marktteilnehmer zur Verfügung gestellt. Das System wäre als Hochrisiko-KI-System iSd Anh. III einzustufen. Unterliege ich einer Regulierung?

Anhang III sieht hier keine spezielle Aufgaben- oder Rollenverteilung vor, sondern definiert, welche KI-Systeme als hochriskant iSd Art. 6 Abs. 2 gelten. Ein Unternehmen, das ihr eigenes KI-System entwickelt und selbst in Betrieb nimmt, wird einerseits selbst die Rolle des Anbieters innehaben, als auch die Rolle des Betreibers. Es werden damit sowohl die Verpflichtungen des Anbieters (https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/Anbieterverpflichtungen.de.html) als auch die des Betreibers (https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/Betreiberverpflichtungen.de.html) schlagend.

Zurück zum Inhaltsverzeichnis

Wie werden Unternehmensgruppen behandelt, wenn konzernintern KI-Systeme entwickelt, und durch andere Unternehmen innerhalb des Konzerns genutzt werden?

Wird ein Hochrisiko-KI-System in einem Teilunternehmen des Konzerns entwickelt, und in einem anderen Teilunternehmen des Konzerns eingesetzt, gestalten sich die Pflichten für Anbieter und Betreiber je nach Einzelfall. 

Zurück zum Inhaltsverzeichnis

Ich möchte KI-generierte Videos von einem Anbieter beziehen und auf meiner eigenen Plattform veröffentlichen, was muss ich aus Sicht des AI Acts beachten?

Wenn Sie als Unternehmer KI-Systeme Dritter einsetzen, ohne eine Änderung daran vorzunehmen, sind sie in der KI-Wertschöpfungskette in der Regel als Betreiber einzustufen, d.h. für Sie gelten die Betreiberverpflichtungen. Im Fall von KI-generierten Videos handelt es sich um ein KI-System mit begrenztem Risiko, bei welchem ab 2.8.2026 Transparenzpflichten gelten.

Das heißt, wenn es sich bei Ihren Videos um "Deep Fakes" im Sinne des AI Acts handelt, trifft sie eine Kennzeichnungspflicht. Andernfalls ergeben sich für die Videos keine gesonderten Verpflichtungen aus dem AI Act. Nähere Informationen dazu finden Sie auf unserer Website: https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/Transparenzpflichten.de.html

Zurück zum Inhaltsverzeichnis

Ich möchte KI-generierte Fotos von einem Anbieter beziehen und auf meiner eigenen Plattform veröffentlichen. Ist dies urheberrechtlich zulässig?

Ob gesonderte Ansprüche des KI-Anbieters bestehen, werden Sie in der Regel in dessen AGB oder anderen vertraglichen Vereinbarungen finden. Anbieter von GPAI-Modellen, wie es ein System zur synthetischen Generierung von Text, Bildern und Videos sein kann, haben nach den Verpflichtungen des AI Acts ab 2.8.2025 eine Strategie zur Einhaltung des Urheberrechts (Art. 53 Abs. 1 lit. c AIA) bereitzustellen.

Manche Anbieter bieten eine solche bereits jetzt an und beschränken die Trainingsdaten des Modells auf lizenzierten Content. Einige Anbieter gewährleisten auch die unbedenkliche Nutzung der generierten Inhalte mit einer Garantie der Schad- und Klagloshaltung. Hier wäre eine Prüfung der konkreten privatrechtlich vereinbarten Zusicherungen ratsam.

Zurück zum Inhaltsverzeichnis

Was muss ich beachten, wenn ich Videos mit KI-Avataren bzw. digitalen Zwillingen erstelle?

Wenn Sie als Unternehmer KI-Systeme Dritter, ohne eine Änderung daran vorzunehmen, sind Sie in der KI-Wertschöpfungskette in der Regel als Betreiber einzustufen, d.h. für Sie gelten die Betreiberverpflichtungen. Im Fall von KI-generierten Videos und Audio handelt es sich um ein KI-System mit begrenztem Risiko, bei welchem ab 2.8.2026 Transparenzpflichten gelten.

Welche Pflichten jeweils gelten ist davon abhängig, ob es sich bei diesen Avataren um fotorealistische oder illustrative Avatare handelt.

Das heißt, wenn es sich bei Ihren Videos um "Deep Fakes" im Sinne des AI Acts handelt (etwa weil das Avatar Sie fotorealistisch als Person darstellen soll), trifft sie eine Kennzeichnungspflicht. Dies gilt ebenso bei illustrativen Avataren, welche Ihre Stimme KI-generiert wiedergeben, obwohl Sie diesen Text nicht gesprochen haben.

Andernfalls ergeben sich für die Videos keine gesonderten Verpflichtungen aus dem AI Act, da bei illustrativen Avataren hervorgeht, dass es sich nicht um die eigentliche Person handelt, welche Inhalte vermeintlich wiedergibt. 

Zurück zum Inhaltsverzeichnis

Ich möchte gerne ein KI-System im Bereich der kritischen Infrastruktur verwenden. Ab wann handelt es sich um ein Hochrisiko-KI-System? Was ist ein Sicherheitsbauteil?

Ein KI-System stellt ein Hochrisiko-KI-System dar, wenn es im Bereich der kritischen Infrastruktur als Sicherheitsbauteil verwendet wird, Anhang III Z. 2 AIA:

  • im Rahmen der Verwaltung und des Betriebs
  • kritischer digitaler Infrastruktur,
  • des Straßenverkehrs oder
  • der Wasser-, Gas-, Wärme- oder Stromversorgung

Im Bereich der Hochrisiko-KI-Systeme wird in Art. 6 Abs. 1 lit. a AIA darauf verweisen, dass ein KI-System als hochriskant eingestuft wird, wenn

  • es als Sicherheitsbauteil eines in Anhang I genannten Produkts dienen soll, oder
  • wenn das KI-System in Anhang III genannt wird (Art. 6 Abs. 2 AIA).

Grundsätzlich gehört die kritische Infrastruktur zu einer kritischen Einrichtung. In der Definition in Art. 3 Z. 62 AIA wird bzgl. des Begriffes "kritische Infrastruktur" auf Art. 2 Z. 4 der RL (EU) 2022/2557 ("Richtlinie über die Resilienz kritischer Infrastruktur", "critical entities resilience directive", "CER") verwiesen. Laut Art. 2 Z. 1, 4 und 5 CER muss diese "kritische Einrichtung", also eine öffentliche oder private Einrichtung, vom jeweiligen Mitgliedstaat als solche eingestuft werden.

Zur dazugehörigen konkreten "kritischen Infrastruktur" zählen demnach:

  • Objekte, Anlagen, Ausrüstung, Netze oder Systeme oder
  • Teile eines Objekts, einer Anlage, Ausrüstung,
  •  eines Netzes oder eines Systems,

die für die Erbringung eines wesentlichen Dienstes erforderlich ist. Ein solcher Dienst ist wesentlich, wenn er von entscheidender Bedeutung ist

  • für die Aufrechterhaltung wichtiger gesellschaftlicher Funktionen,
  • wichtiger wirtschaftlicher Tätigkeiten,
  • der öffentlichen Gesundheit und Sicherheit oder
  • der Erhaltung der Umwelt.

In Art. 2 der aufgrund der CER ergangenen Delegierten Verordnung 2023/2450 der Europäischen Kommission, ist eine nicht erschöpfende Liste von wesentlichen Diensten genannt.

Der Begriff des "Sicherheitsbauteil" wird in Art. 3 Z 14 AIA folgendermaßen definiert:

"ein […] Bestandteil eines Produkts oder KI-Systems, der eine Sicherheitsfunktion für dieses Produkt oder KI-System erfüllt oder dessen Ausfall oder Störung die Gesundheit und Sicherheit von Personen oder Eigentum gefährdet"

Speziell zu Kritischer Infrastruktur wird der Gesetzgeber in ErwG 55 AIA etwas deutlicher:

„(55) […] Sicherheitsbauteile kritischer Infrastruktur, einschließlich kritischer digitaler Infrastruktur, sind Systeme, die verwendet werden, um die physische Integrität kritischer Infrastruktur oder die Gesundheit und Sicherheit von Personen und Eigentum zu schützen, die aber nicht notwendig sind, damit das System funktioniert. Ausfälle oder Störungen solcher Komponenten können direkt zu Risiken für die physische Integrität kritischer Infrastruktur und somit zu Risiken für die Gesundheit und Sicherheit von Personen und Eigentum führen. Komponenten, die für die ausschließliche Verwendung zu Zwecken der Cybersicherheit vorgesehen sind, sollten nicht als Sicherheitsbauteile gelten. Zu Beispielen von Sicherheitsbauteilen solcher kritischen Infrastruktur zählen etwa Systeme für die Überwachung des Wasserdrucks oder Feuermelder-Kontrollsysteme in Cloud-Computing-Zentren.“

Ob eine Ausnahme davon iSd einer der Ausnahmegründen des Art. 6 Abs. 3 AIA vorliegt, wird auf die Ausgestaltung im konkreten Einzelfall ankommen.

Zurück zum Inhaltsverzeichnis

Ich möchte gerne KI-Reallabore nutzen. Ab wann ist dies möglich und wie genau funktionieren diese?

In KI-Reallaboren oder auch Regulatory Sandboxes genannt, können darin beaufsichtigte Tests unter Realbedingungen durchgeführt werden.

Art. 57 AIA sieht vor, dass Mitgliedstaaten dafür sorgen, dass ihre zuständigen Behörden mindestens ein KI-Reallabor auf nationaler Ebene einrichten, das bis zum 2. August 2026 einsatzbereit sein muss. Dieses Reallabor kann auch gemeinsam mit den zuständigen Behörden anderer Mitgliedstaaten eingerichtet werden. Die Kommission kann technische Unterstützung, Beratung und Instrumente für die Einrichtung und den Betrieb von KI-Reallaboren bereitstellen.

In KI-Reallaboren erhalten Entwickler eine kontrollierte Umgebung, um neue KI-Systeme für einen begrenzten Zeitraum zu testen und weiterzuentwickeln, bevor diese auf den Markt kommen. Dabei einigen sich die Entwickler und die Behörden auf einen Plan, der den Ablauf der Tests regelt.

Der Vorteil dieser Reallabore ist, dass die zuständigen Behörden Unterstützung und Aufsicht bieten, um Risiken zu minimieren. Dies betrifft vor allem die Einhaltung von Grundrechten, Gesundheits- und Sicherheitsstandards sowie andere gesetzliche Anforderungen. Dazu wird es Leitfäden zu regulatorischen Erwartungen und zur Erfüllung der Anforderungen geben.

Zudem kann der Anbieter auf Anfrage einen schriftlichen Nachweis für die im Reallabor durchgeführten Tätigkeiten erhalten. Außerdem erstellt die Behörde einen Bericht, der die durchgeführten Aktivitäten und deren Ergebnisse beschreibt. Diesen können die Anbieter im Rahmen des Konformitätsbewertungsverfahrens nutzen.

Die Einrichtung von KI-Reallaboren soll zu den folgenden Zielen beitragen:

  • Verbesserung der Rechtssicherheit
  • Förderung des Austauschs bewährter Verfahren durch Zusammenarbeit mit den am KI-Reallabor beteiligten Behörden
  • Förderung von Innovation und Wettbewerbsfähigkeit sowie Erleichterung der Entwicklung eines KI-Ökosystems
  • Leisten eines Beitrags zum evidenzbasierten regulatorischen Lernens
  • Erleichterung und Beschleunigung des Zugangs von KI-Systemen zum Binnenmarkt

Die am KI-Reallabor beteiligten Anbieter bleiben nach geltendem Recht der Union und nationalem Haftungsrecht für Schäden haftbar, die Dritten infolge der Erprobung im Reallabor entstehen.

Zurück zum Inhaltsverzeichnis

Unser Unternehmen hat seinen Sitz in der EU und möchte Hochrisiko-KI-Systeme entwickeln, die ausschließlich außerhalb der EU eingesetzt werden sollen. Gilt der AI Act für diese KI-Systeme?

Grundsätzlich gilt für die Anwendbarkeit des AIA das Marktortprinzip, d.h. es gelten die Regelungen, welche für den jeweiligen Markt, auf welchem das Produkt in Verkehr gebracht wird, und zwar unabhängig vom Niederlassungsort. Dabei ist ausschlaggebend, dass das KI-System oder KI-Modell in einem Mitgliedsstaat der Europäischen Union bereitgestellt oder in Betrieb genommen wird (Art. 2 Abs. 1 lit. a AIA).

Hier hat das Unternehmen zwar seinen Sitz in der EU, möchte aber Hochrisiko-KI-Systeme entwickeln, die ausschließlich außerhalb der EU vertrieben und eingesetzt werden sollen, somit auf einem anderen Markt. Daher gilt der AIA nicht für Anbieter, die ein Produkt ausschließlich exportieren.

Jedoch könnte das Unternehmen trotzdem dazu verpflichtet sein, die Betreiberpflichten einzuhalten, da es seinen Sitz in der EU hat  (Art. 2 Abs. 1 lit. b AIA). Dafür ist Voraussetzung, dass das Unternehmen das KI-System aber auch in der EU betreibt. Dies ist hier nicht der Fall und der AIA deshalb nicht anwendbar.

Ferner darf das KI-System gem. Art. 2 Abs. 1 lit. c AIA aber auch nicht so genutzt werden, dass Ergebnisse in die EU gelangen. Wenn auch die Nutzungen ausschließlich außerhalb der EU erfolgen, ist der AIA nicht anwendbar.

Zu beachten ist, dass die Regelungen des AIA gem. Art. 2 Abs. 1 lit. g AIA Anwendung finden können, wenn es betroffene Personen geben kann, die sich in der EU befinden. Deren Betroffenenrechte, z.B. in Art. 86 AIA und auch Erwägungsgrund 22, sehen vor, dass die Daten in der Union rechtmäßig erhoben worden sein müssen. D.h.  weitergehende Regelungen, – auch aus anderen Gesetzen – welche die Rechtmäßigkeit der Datenerhebung, insbesondere von betroffenen natürlichen Personen betreffen, um dieses KI-System zu entwickeln, müssen trotzdem beachtet werden.

Zurück zum Inhaltsverzeichnis