AI Act Assessment – Vorgaben verlässlich prüfen

So wird Komplexität einfach(er)

Mit der der europäischen KI-Verordnung (AI Act) sind Unternehmen verpflichtet, Vorgaben einzuhalten, wenn sie KI-Lösungen entwickeln, bereitstellen und nutzen. Da erste Teile des AI Act bereits ab August 2024 und dann vollständig bis 2026 in Kraft treten, ist eine Konformitätsprüfung des KI-Systems bzw. -Modells gegen die konkreten Vorgaben bereits jetzt zwingend geboten.

Wir machen für euch die damit verbundene Komplexität beherrschbar und haben ein nutzerorientiertes Bewertungsschema entwickelt, das wir auch toolgestützt zur Verfügung stellen.

Mehr erfahren

Anforderungen aus dem AI Act verstehen, bewerten & erfüllen

Der AI Act legt einen risikobasierten Rahmen fest, der je nach Risiko einer bestimmten Lösung, verschiedene Rechte und Pflichten für das Unternehmen vorsieht. Entscheidend ist dabei, ob euer Unternehmen im Sinne der Verordnung als "Betreiber" oder als "Anbieter" einzustufen ist und in welche Risikoklasse die in Frage stehende KI fällt. Infolge einer Konformitätsprüfung gegen den AI Act erfahrt ihr, ob Handlungsbedarf besteht oder bereits alle Voraussetzungen erfüllt sind.

Unser Assessment verfolgt dabei eine möglichst einfache Logik zur Ein- bzw. Bewertung der jeweiligen Anforderung aus dem AI-Act. Der User wird systematisch durch unser AI Act Assessment geführt. In Abhängigkeit der getroffenen Antwort gelangt er zur nächsten relevanten Fragestellung und der dahinter stehenden gesetzlichen Regelung. So müsst ihr euch in der Fülle der Anforderungen auch nur mit solchen Regelungen auseinandersetzen, die für euren konkreten KI-Anwendungsfall zutreffend sind – alle übrigen werden "übersprungen".

 

Besteht für uns Handlungsbedarf?

Sind wir "Betreiber" oder "Anbieter"?

Was müssen wir zwingend bewerten, was nicht?

Deine Vorteile des AI Act Assessment

Das AI Act Assessment befähigt euch zu einer unkomplizierten Prüfung und gibt euch verlässlich Antwort, ob und welche Maßnahmen ihr im Kontext von Entwicklung, Training und Nutzung der KI (noch) treffen müsst. Dafür bietet es euch folgende Vorteile:

  • Strukturierte und aufeinander aufbauende Fragen zu den Einzelregelungen aus dem AI Act – aus Perspektive des Bearbeiters bzw. Nutzers betrachtet
  • Vordefinierte Auswahlfelder zur Beantwortung
  • Erläuternde Hinweise und Hintergrundinformationen inkl. eingebettetem Gesetzeswortlaut für eine schnelle und leichtere Bewertung
  • Dokumentation aller Bewertungsergebnisse und Zusammenführung in einer Ergebnisübersicht – ideal geeignet zum Aufbau eines zentralen KI-Registers
  • Zentrales Werkzeug für eure KI-Governance und KI-Compliance

 

 

Lass dich unterstützen!

Gerne stehen wir euch bei Bedarf auch beratend mit unserer KI-Expertise zur Verfügung und unterstützen euch in der gemeinsamen Bewertung im AI Act Risk Assessment.

Icon Checkliste

Jetzt loslegen!

Bewertet mit dem AI Act Assessement eure KI-Lösungen

So prüft ihr eure KI-Lösung auf Konformität mit dem AI Act

1. KI-Anwendungsfall erfassen

2. KI-System oder -Modell bestimmen

3. KI-Betreiber oder -Anbieter einstufen

4. Verbotene Praktiken

5. Risikokategorien feststellen

  • KI-Anwendungsfall erfassen

    1. KI-Anwendungsfall erfassen

    Im ersten Schritt werden die "Metadaten" des Use Case erfasst, der gegen die Anfor­de­rungen aus dem AI Act geprüft und bewertet werden soll.
    Neben einer kurzen Beschrei­bung des KI-An­wen­dungs­falls gehören dazu u.a. auch Angaben zu den ver­wen­deten Input- und er­zeug­ten Output-Daten und zur einge­setz­ten tech­nischen Archi­tek­tur etc.
    Ein Teil der hier erforderlichen Infor­ma­tionen wird mit hoher Wahr­schein­lichkeit im Unter­nehmen bereits an anderer Stelle bzw. zu anderen Zwecken erfasst (z. B. Be­schaf­fung, Auf­trags­ver­ar­beitung, Risiko­analyse etc.), so dass auf deren Konsis­tenz zu achten ist

  • KI-System oder KI-Modell

    2. KI-System oder -Modell bestimmen

    Im nächsten Schritt geht es darum fest­zustellen, ob die Lösung im Ver­ständ­nis der Defi­ni­tion aus dem AI Act über­haupt die Merk­male einer Künst­lichen Intelli­genz erfüllt (An­wend­bar­keit des AI Act).
    Ist das der Fall, wird geprüft, ob die Lö­sung im Sinne des Ge­set­zes als "KI-System" oder "KI-Mo­dell" einzu­stufen ist.
    Die Ein­stu­fung be­ein­flusst die in der Folge gel­tenden An­for­de­rungen, die Haf­tungs­ver­pflich­tun­gen und die Art und Weise, wie Trans­parenz und Sicher­heit gewähr­leistet werden müssen.
    KI-Systeme unter­liegen stren­geren Vor­schrif­ten und Kon­trollen, da sie um­fassen­dere An­wen­dungen dar­stellen, während KI-Mo­delle haupt­sächlich im Hin­blick auf ihre tech­nische Funktion­alität und Inte­grität reguliert werden.

  • KI-Entscheidung

    3. KI-Betreiber oder -Anbieter einstufen

    Die Frage der Abgren­zung, ob die Vo­raus­setzungen des "Betrei­bers" oder des "Anbie­ters" er­füllt sind, sollte nicht unter­schätzt werden.
    Die Ein­stu­fung hat erheb­liche, aber unter­schied­liche Aus­wir­kungen auf die Pflich­ten und Ver­ant­wort­lich­keiten im Zu­sammen­hang mit dem Ein­satz von KI-Systemen.
    Wenn auch in unter­schied­lichen Phasen des Lebens­zyklus eines KI-Systems, tragen beide Rollen letzt­lich zur Gesamt­ver­ant­wortung für den siche­ren und effek­tiven Ein­satz von KI-Tech­no­logien bei.

  • Achtung! Verbotene Praktiken AI ACT

    4. Verbotene Praktiken

    Nach den Bestimmung des AI Act sind "verbotene Praktiken" spezifische An­wen­dungen von Künst­licher In­telli­genz (KI), die als be­sonders ris­kant und ethisch in­ak­zep­tabel ein­ge­stuft werden. Diese Prak­tiken sind grund­sätzlich verboten, um die Grund­rechte und die Sicher­heit der Bürger zu schützen.
    Unter­nehmen, die verb­otene Prak­tiken an­wenden, müssen so­for­tige Maß­nahmen er­grei­fen, um den Ein­satz dieser Prak­tiken so­fort zu stoppen. Verstöße gegen dieses Ver­bot führen zu stren­gen recht­lichen Sanktio­nen.

  • Risikokategorie AI Act

    5. Risikokategorien feststellen

    Die Regelungen des AI Act folgen einem risiko­ba­sier­tem An­satz. Er stellt sicher, dass die strengs­ten Kon­trol­len und Maß­nahmen auf die risiko­reichsten An­wen­dungen ange­wendet werden, während weniger riskante An­wen­dungen weniger stren­gen Regeln unter­liegen.
    Der AI Act diffe­ren­ziert zwischen vier Kate­gorien:

    • Verbotene Praktiken
    • Hochrisiko-KI-Systeme
    • KI-Systeme mit Inter­aktion zu Pe­rsonen
    • KI-Modelle mit all­ge­mei­nen Ver­wen­dungs­zweck

    Je nach Kate­gorie ergeben sich abgestufte Ver­pflich­tungen aus der Regu­lierung des AI Act.
    Für KI-Systeme, die keiner der Risiko­kate­gorien zuge­ordnet sind, gelten keine An­for­derungen des AI Act, da sie nur mini­male oder geringe Risiken mit sich bringen.

AI Act noch besser verstehen?

Du möchtest die Systematik, Vorgaben und Zusammenhänge aus dem AI Act (noch) besser verstehen und dich mit Experten für KI-Compliance dazu austauschen? Dann empfehlen wir dir und deinem Team aus unserer Akademie unsere Schulung zum AI Act.

Auch interessant für dich

Erklärbare KI – ein Buch mit sieben Siegeln?

Die Politik fordert deshalb kategorisch "erklärbare KI", aber die Konzepte dazu stecken noch in den Kinderschuhen. Fachartikel von Claudia Dölker.

KI-Modelle im Fokus - 7. MaRisk-Novelle

Es war nur eine Frage der Zeit, bis die Bundesanstalt für Finanzdienstleistungsaufsicht (BaFin) KI-Modelle aufgreift. Ein Kommentar.

Data & AI-Seminare

Du willst Vorreiter und Experte sein, wenn es um Data und AI geht? Dann buche für dich und dein Team eines unserer Seminare!

Dein Experte für
den AI Act

Sebastian Dosch
Enabler und Principal Consultant

Du hast Fragen zum AI Act oder einem anderen Regulatorik-Thema? Sebastian Dosch hat die Antworten und freut sich über deine Kontaktaufnahme.
Tel +49 6172 177 630

Kontakt    Profil ansehen

×
×

AI Act

Der AI Act, auf deutsch KI-Verordnung genannt, sorgt für eine Harmonisierung von Anforderungen für Entwicklung und Nutzung von KI-Systemen in der Europäischen Union (EU). Diese Regelungen sollen das Vertrauen in die KI stärken, in dem Individuen und Unternehmen geschützt werden, bspw. durch Berücksichtigung ethnischer Grundsätze. Gleichzeitig soll die Innovation bei der Entwicklung von KI gesteigert werden.

Der Einsatz von KI wird auf Basis dieser Informationen risikobasiert reguliert:

KI-Systeme des AI Act

Je nach Art des Risikos, das von einem KI-System ausgeht, werden diese unterschiedlich stark reguliert. Dies geht über den Verbot von KI-Systemen für bestimmte Zwecke (Art. 5 AI Act) über strenge Bestimmungen für KI-Systemen mit hohen Risiken (Art. 6 ff. AI Act) bis zu Transparenz- und Informationspflichten für bestimmte KI-Systeme (z.B. interagierende Systeme oder Erzeugung manipulierter Audio-, Bild-, Video- oder Textinhalte). Auch Anbieter von KI-Modellen mit allgemeinem Verwendungszweck (General Purpose AI oder GPAI) müssen Pflichten erfüllen (Art. 51 ff. AI-Act).

Wenn KI-Systeme in keine der genannten Risikokategorien eingeordnet werden können, beinhalten diese minimale oder wenige Risiken und müssen somit keine Anforderungen des AI Act berücksichtigen.

×

Inkrafttreten des AI Acts

Der AI Act wird im August 2024 im Europäischen Amtsblatt veröffentlicht. Damit gilt der AI Act ab dem 20. Tag nach der Veröffentlichung. Jedoch teilt sich die Gültigkeit auf:

  1. Bestimmungen zu verbotenen KI-Systemen müssen ab Februar 2025, 6 Monate nach Inkrafttreten, beachtet werden. Verbotene KI-Systeme dürfen ab diesem Zeitpunkt nicht mehr genutzt werden.
  2. Bestimmungen zu KI-Systemen mit allgemeinem Verwendungszweck müssen 12 Monate nach Inkrafttreten, ab August 2025, angewendet werden. Dies betrifft insbesondere die Transparenz- und Informationspflichten.
  3. Zwei Jahre nach Inkrafttreten, ab August 2026, gelten alle Bestimmungen des AI Acts. Dies betrifft insbesondere die Anforderungen an Hochrisiko-KI-Systeme. Eine Ausnahme hiervon gibt es. Diese muss nach einem weiterem Jahr beachtet werden.
  4. Drei Jahre nach Inkrafttreten, also ab August 2027, wird dann auch Art. 6 Abs. 1 und die entsprechenden Pflichten für Hochrisiko-KI-Systeme, die z.B. als Sicherheitsbauteil in Maschinen, Spielzeug, Aufzügen, Seilbahnen oder ähnlichem dienen.
×

Personengruppen AI Act

Der AI Act nimmt mehrere Personengruppen in die Pflicht, wobei der Anbieter und der Betreiber die wichtigsten sind.

AI Act Personengruppen

Ein Anbieter nach dem AI Act ist eine natürliche oder juristische Person, die ein KI-System/-Modell entwickelt oder entwickeln lässt und dieses unter einem eigenen Namen vertreibt oder nutzt. Die Definition des Anbieters kann bereits durch Nutzung eines eigenen KI-Systems im Unternehmen erfüllt werden.

Ein Betreiber hingegen ist eine natürliche oder juristische Person, die ein KI-System nutzt. Wichtig hierbei ist, dass die Nutzung des KI-Systems nicht ausschließlich im privaten Umfeld erfolgt. Somit ist jeder Nutzer von KI-Systemen im Beruf nach dem AI Act ein Betreiber.

×

Risikobasierte Einschätzung von KI-Systemen

Der AI Act regelt den Einsatz und den Umgang mit KI-Systemen. Die Einschätzung beruht dabei auf einem risikobasierten Ansatz:

AI Act Risikokategorien

Dieser Ansatz unterscheidet die Regelungsbedarfe nach Umfang von Risiken, die von den KI-Systemen ausgehen.

  • KI-Systeme, die ein nicht akzeptables Risiko beinhalten, sind nach dem AI Act verboten.
  • Für KI-Systeme, die ein hohes Risiko in wichtigen Bereichen für die Menschen beinhalten, gelten besondere Anforderungen. Dies gilt insbesondere in Bezug auf Gesundheit, Sicherheit und Grundrechte.
  • Bestimmte KI-Systeme, die in direkten oder indirekten Kontakt mit den Nutzern kommen, müssen Informationen offenlegen, um die Entscheidungen und den Umgang mit den KI-Systemen erklären zu können.
  • Zuletzt gibt es KI-Systeme, die keine oder geringe Risiken beinhalten und deshalb keiner Überwachung bedürfen.
×

Anforderungen an KI-Systeme

Der AI Act stellt an die unterschiedlichen KI-Systeme je nach Risikoeinschätzung verschiedene Anforderungen:

Anforderungen an KI-Systeme

Für die höchste Kategorie von KI-Systemen mit hohem Risiko beinhaltet der AI Act die meisten Bestimmungen: Hier müssen Risiko-, Qualitäts- und Überwachungssysteme entwickelt werden, um diese über den gesamten Lebenszyklus des KI-Systems aufrechterhalten zu können. Sollten im Laufe des Lebenszyklus durch die Systeme neue Risiken erkannt werden, müssen diese durch neue Maßnahmen mitigiert werden. Weiter müssen zum Zweck der Information und Transparenz der Nutzer auch die Daten überwacht und deren Qualität sicher gestellt werden.

Auch KI-Systeme mit allgemeinem Verwendungszweck, General Purpose AI, müssen bestimmte Dokumentationspflichten erfüllen und die Nutzer informieren.

Handelt es sich um ein KI-System mit allgemeinem Verwendungszweck mit systemischen Risiko, bspw. mit Einfluss auf Gesundheit, Sicherheit oder Grundrechte, so gelten strengere Anforderungen. Insbesondere die Risiken, die mit einem solchen KI-System entstehen können, müssen identifiziert und bewertet werden.

Bei einem KI-System mit direkten oder indirektem Nutzerkontakt gelten vor allem Transparenzpflichten, um die Nutzer über den KI-generierten Ausgabeinhalt, Output, vollständig informieren zu können. So müssen bspw. KI-generierte Bildinhalte als KI-generiert gekennzeichnet werden.

Bei den verschiedenen Anforderungen je KI-System ist es wichtig zu beachten, dass die Anforderungen sowohl für Anbieter als auch für Betreiber gelten können.

×

Definition von Anbieter und Betreiber

Der AI Act spricht verschiedene Zielgruppen an, die von der Verordnung betroffen sind, wobei Anbieter und Betreiber die wichtigsten sind.

AI Act Personengruppen

Nach dem AI Act gilt eine natürliche oder juristische Person als Anbieter, die ein KI-System/-Modell entwickelt oder entwickeln lässt und dieses unter einem eigenen Namen vertreibt oder auch nutzt. Somit gilt bereits ein Unternehmen als Anbieter, die ein eigenes KI-System entwickelt und in seinem Unternehmensumfeld nutzt.

Ist man kein Anbieter, könnte man als Betreiber gesehen werden. Ein Betreiber ist eine natürliche oder juristische Person, die ein KI-System im beruflichem Umfeld nutzt. Somit ist jeder Nutzer von KI-Systemen im Unternehmen ein Betreiber nach dem AI Act.

Diese Einschätzung führt zu unterschiedlichen Rechten und Pflichten für die jeweilige Zielgruppe. Dies kann von Anforderungen bei der Entwicklung von KI-Systemen über Anweisungen zum Gebrauch der KI-Systeme bis hin zu einer Registrierung in einer Datenbank reichen. Ebenfalls gibt es auch Bestimmungen für ein Qualitäts- und Risikomanagement über den gesamten Lebenszyklus des KI-Systems.

×

Wissen für die KI-Nutzung

Notwendiges Wissen für die Nutzung von KI-Systemen kann vielseitig sein. Zunächst müssen die Grundlagen definiert werden, auf denen ein KI-System aufbaut und wie dessen Entscheidungen zustande kommen. Mit diesem Wissen kann man bereits verstehen, worauf bei den Ausgabeinhalten, dem Output, der KI zu achten ist.

Neben den grundlegenden Aspekten kommen noch rechtliche Anforderungen in Betracht. Hier spielen Datenschutz- und Urheberrecht eine große Rolle:

  • Darf man alle Informationen in ein KI-System geben?
  • Ist der Output der KI urheberrechtlich geschützt?
  • Spielt es eine Rolle, auf welchen Daten der Output beruht?

Dies sind nur einige Fragen, die im Bereich der KI wichtig zu klären sind.

Willst du die Antworten zu diesen Fragen erhalten?
Im Rahmen eines Seminars oder Webinars passen wir diese und andere Fragen speziell auf deine Bedürfnisse und die deiner Organisation an. Schau gerne in unser Schulungsangebot!