Themenbild Services der RTR

Offenlegungs-, Kennzeichnungs- und Informationspflichten

In der Risikostufe „begrenztes Risiko“ werden den Anbietern und Betreibern von KI-Systemen Offenlegungs-, Kennzeichnungs- bzw. Informationspflichten auferlegt. Die konkreten Bestimmungen finden sich in Art. 50 AIA wieder.

Die Infografik fasst den Fließtext zusammen und beschreibt, wie KI-Systeme mit begrenztem Risiko Informations-, Offenlegungs- und Kennzeichnungspflichten auslösen.
KI-Systeme mit begrenztem Risiko lösen Informations-, Offenlegungs- und Kennzeichnungspflichten aus. © RTR (CC BY 4.0)

KI-Systeme zur direkten Interaktion

Anbieter von KI-Systemen, die für die direkte Interaktion mit natürlichen Personen bestimmt sind, haben diese so zu konzipieren und zu entwickeln, dass die betreffenden natürlichen Personen informiert werden, dass sie mit einem KI-System interagieren (Art. 50 Abs. 1 AIA). Typischerweise fallen unter diese Kategorie Chatbots. Der Anbieter eines Chatbot-Systems hat dieses so zu gestalten, dass in Gesprächen klargestellt wird, dass eine Interaktion mit einer KI stattfindet.

Ausnahme: Die Anwendung eines KI-Systems ist aus Sicht einer angemessen informierten, aufmerksamen und verständigen natürlichen Person aufgrund der Umstände und des Kontexts der Nutzung offensichtlich. Z. B. virtuelle Assistenzsysteme, die durch Sprachbefehle mit ihren Nutzern agieren wie Siri (Apple) oder Alexa (Amazon).



KI-Systeme zur Generierung synthetischer Inhalte

Anbieter von KI-Systemen, einschließlich KI-Systemen mit allgemeinem Verwendungszweck, die synthetische Audio-, Bild-, Video- oder Textinhalte erzeugen, stellen sicher, dass die Ausgaben des KI-Systems in einem maschinenlesbaren Format gekennzeichnet und als künstlich erzeugt oder manipuliert erkennbar sind (Art. 50 Abs. 2 AIA). Die Kennzeichnung hat durch technische Lösungen zu erfolgen, wie z. B. Wasserzeichen, Metadatenidentifizierungen, kryptografische Methoden zum Nachweis der Herkunft und Authentizität des Inhalts, Protokollierungsmethoden, Fingerabdrücke oder andere Techniken, oder eine Kombination solcher Techniken je nach Sachlage (siehe ErwGr. 133). Typischerweise fallen unter diese Kategorie KI-gestützte Textgeneratoren wie ChatGPT sowie KI-gestützte Bild- und Videogenerator Midjourney oder DALL-E etc. Die Kennzeichnung muss maschinenlesbar sein, eine für menschliche Betrachter vorgesehene Kennzeichnungspflicht ist für Anbieter nicht vorgesehen.

Ausnahme 1: KI-Systeme, welche eine unterstützende Funktion für die Standardbearbeitung ausführen oder welche die vom Betreiber bereitgestellten Eingabedaten oder deren Semantik nicht wesentlich verändern. Z. B. kleinflächiges „generative fill“ in Bildbearbeitungsprogrammen.

Ausnahme 2: KI-Systeme, die gesetzlich zur Aufdeckung, Verhütung oder Ermittlung von Straftaten zugelassen sind.

 

Betreiber treffen ebenfalls einige Offenlegungspflichten. Bei KI-Systemen, die Deepfake-Bild-, Ton- oder Videoinhalte erzeugen oder manipulieren, ist offenzulegen, dass die Inhalte künstlich erzeugt oder manipuliert wurden. Für Bild-, Ton- und Videoinhalte, die kein Deepfake sind, besteht eine solche Offenlegungspflicht nicht. (Art. 50 Abs. 4 UAbs. 1 AIA)

Ausnahme 1: Verwendung zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten ist gesetzlich zugelassen.

Ausnahme 2: Ist der Bild-, Ton- oder Videoinhalt Teil eines offensichtlich künstlerischen, kreativen, satirischen, fiktionalen oder analogen Werks oder Programms, so beschränken sich die in diesem Absatz festgelegten Transparenzpflichten darauf, das Vorhandensein solcher erzeugten oder manipulierten Inhalte in geeigneter Weise offenzulegen, die die Darstellung oder den Genuss des Werks nicht beeinträchtigt. Z.B. Überspitzte satirische Darstellung von Personen des Öffentlichen Interesses.

 

Betreiber eines KI-Systems, das Text erzeugt oder manipuliert, der veröffentlicht wird, um die Öffentlichkeit über Angelegenheiten von öffentlichem Interesse zu informieren, müssen offenlegen, dass der Text künstlich erzeugt oder manipuliert wurde (Art. 50 Abs. 4 UAbs. 2 AIA). KI-generierte Texte, die nicht veröffentlicht werden, oder die nicht verwendet werden, um die Öffentlichkeit über Angelegenheiten von öffentlichem Interesse zu informieren, unterliegen keiner Offenlegungspflicht.

Ausnahme 1: Künstlich erzeugte Textinhalte unterliegen einer menschlichen Überprüfung oder redaktionellen Kontrolle und eine natürliche oder juristische Person trägt die redaktionelle Verantwortung für die Veröffentlichung der Inhalte. Z.B. traditionelle Medieninhaber (Zeitungsverlag)

Ausnahme 2: Verwendung zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten ist gesetzlich zugelassen.

Ist ein synthetisches Bild/Video/Audio zugleich ein Deepfake?

Zwischen den Begriffen synthetischer Inhalt und Deepfake gibt es zwar Überlappungen, es gilt hier aber in Bezug auf die rechtlichen Folgen zu trennen.

Im AI Act wird der Begriff „Deepfake“ wie folgt definiert (Art. 3 Z 60 AIA):

einen durch KI erzeugten oder manipulierten Bild-, Ton- oder Videoinhalt, der wirklichen Personen, Gegenständen, Orten, Einrichtungen oder Ereignissen ähnelt und einer Person fälschlicherweise als echt oder wahrheitsgemäß erscheinen würde

Der Begriff „Deepfake“ ist ein Kofferwort, also ein Wort, das aus mindestens zwei Wortsegmenten besteht. Es setzt sich zusammen aus den Wörtern „Deep Learning“ und „Fake“. Zusammengefasst sind darunter realistisch wirkende Medieninhalte gemeint, die aber so nicht stattgefunden haben. Die Anwendungsgebiete sind breit gestreut; sowohl in positiver als auch negativer Hinsicht.

Positive Beispiele:

  • Unterhaltung und Medien: In Filmen und Videospielen können Deepfakes eingesetzt werden, um beeindruckende Spezialeffekte zu erzeugen. Musikvideos können auch mit Deepfake-Technologie erstellt werden, um visuell ansprechende Effekte zu erzielen.
  • Forensik: Vorfälle können rekonstruiert oder visualisiert werden, die aufgrund fehlender Videos oder Bilder sonst schwer darstellbar wären.

Negative Beispiele:

  • Desinformation und Fake News: Falschinformationen können mittels Deepfake-Technologie verbreitet werden, indem Persönlichkeiten in Videos präsentiert werden, die etwas tun oder sagen, was sie nie getan oder gesagt haben.
  • Cybersicherheit und Datenschutz: Kriminelle können Deepfakes nutzen, um betrügerische Videos oder Anrufe zu erstellen, um Menschen zu täuschen oder identitätsbezogene Verbrechen zu begehen.
  • Missbrauch und Erpressung: Deepfake-Technologie kann missbraucht werden, um kompromittierende Bilder oder Videos von unschuldigen Menschen zu erstellen (z.B. Herstellung von pornographischen Inhalten)

Synthetische Audio-, Bild- oder Videoinhalte sind all jene Inhalte, die nicht vom Menschen erzeugt wurden (vgl. Erwägungsgründe 133). Der Begriff geht daher weiter als ein Deepfake. Ein KI-generiertes Cartoon ist beispielsweise ein synthetischer Bildinhalt, aber kein Deepfake, weil es nicht realistisch ist. Ein KI-generiertes Video, in dem beispielsweise ein tatsächlicher Politiker vor dem Parlament in einer Interviewsituation simuliert wird und dieser über politische Agenden spricht, ist ein synthetischer Videoinhalt, der zugleich ein Deepfake ist. Solche Situationen finden tagtäglich statt und können daher von Bürger:innen fälschlicherweise für echt gehalten werden.

Ob tatsächlich ein Deepfake vorliegt, ist allerdings stets im Einzelfall zu untersuchen!

Zusammengefasst gilt: Jedes Deepfake ist ein synthetisches Bild/Video/Audio, aber nicht jedes synthetische Bild/Video/Audio ist auch ein Deepfake.



KI-Systeme zur Emotionserkennung

Betreiber von Emotionserkennungssystemen oder eines Systems zur biometrischen Kategorisierung informieren die davon betroffenen natürlichen Personen über den Betrieb des Systems (Art. 50 Abs. 3 AIA).

Ausnahme: KI-Systeme, die gesetzlich zur Aufdeckung, Verhütung oder Ermittlung von Straftaten zugelassen sind, sofern geeignete Schutzvorkehrungen für die Rechte und Freiheiten Dritter bestehen.



SaferInternet.at: Wie überprüfe ich Onlineinhalte?