AI Act – Artificial Intelligence Act
Sind Ihre Mitarbeiter:innen KI-fit?
Unternehmen müssen sicherstellen, dass nur Mitarbeiter:innen mit ausreichender KI-Kompetenz KI-Systeme nutzen.

KI-Kompetenzen im Fokus
Was ist der AI Act?
Der AI Act repräsentiert ein umfassendes Gesetz zur Regulierung künstlicher Intelligenz (KI) in der Europäischen Union (EU). Diese Verordnung zielt darauf ab, einheitliche Regeln für die Entwicklung, dem Einsatz sowie dem Vertrieb von KI-Systemen in der EU zu schaffen und infolgedessen ein hohes Schutzniveau für Menschen, Unternehmen und die Gesellschaft insgesamt zu gewährleisten.
Warum gibt es den AI Act?
Der AI Act definiert seine Ziele wie folgt:
- Schutz der Grundrechte:
KI-Systeme sollen die Grundrechte der Menschen achten und nicht verletzen. - Förderung von Innovation:
Der AI Act soll Innovationen im Bereich der KI fördern, aber gleichzeitig sicherstellen, dass diese verantwortungsvoll und ethisch erfolgen. - Wettbewerbsfähigkeit der EU:
Die EU soll im Bereich der KI eine Vorreiterrolle einnehmen und ihre Wettbewerbsfähigkeit stärken.
Wer ist vom AI Act betroffen?
- Anbieter
welche KI-Systeme in der Union in Verkehr bringen oder auch in Betrieb nehmen. Gemeint sind hiermit alle juristischen Personen, Behörden, Einrichtungen oder sonstige Stellen welche ein KI-System entwickeln oder entwickeln lassen. - Nutzer
von KI-Systemen welche sich in der Union befinden. Hier sind zum einen alle juristischen Personen sowie zum anderen alle natürlichen Personen – ohne jeglicher Ausnahme – betroffen.
Bei dem AI Act hält der Gesetzgeber ebenfalls an dem bereits aus der DSGVO bekanntem Marktortprinzip fest. Die Regularien finden Anwendung sobald die KI in der Union eingesetzt wird – unabhängig davon ob ein Akteur in einem Drittland niedergelassen oder ansässig ist.
Anforderungen und Maßnahmen
Es ist notwendig zu verstehen, dass vom AI Act alle Unternehmen betroffen sind.
Stage I (ab 02.02.2025)
-
Kompetenzaufbau und Schulungspflicht
Unternehmen haben sicherzustellen, dass alle Mitarbeiter:innen welche mit Betrieb und Nutzung von KI-Systemen befasst sind über die notwendigen KI-Kompetenzen verfügen. Mit der rasanten Entwicklung von künstlicher Intelligenz steigen auch die Risiken welche mit ihrer Anwendung verbunden sind. Fehlentscheidungen durch unzureichend geschultes Personal, ethische Herausforderungen oder Missbrauch von Daten können schwerwiegende Konsequenzen für Unternehmen und Gesellschaft haben.
-
Verbotszonen
Unternehmen haben sicherzustellen, dass sie keine verbotenen Anwendungen anbieten oder nutzen (zB social scoring, ...)
-
Aufbau einer KI-Strategie
Unternehmen haben sich auf die geltenden sowie kommenden Pflichten bei Betrieb oder Nutzung von KI vorzubereiten. Hierfür ist es unerlässlich passende gesetzeskonforme Strategien zu entwickeln sowie auch umzusetzen.

Wie können wir Ihnen helfen?
-
Beratung
KOMDAT besitzt die notwendigen Kompetenzen im Bereich KI und AI Act
-
Schulung
KOMDAT bietet unterschiedliche Formate zur geforderten Herstellung der notwendigen KI-Kompetenzen
-
Unterstützung
KOMDAT unterstützt bei der Erstellung technischer sowie organisatorischer Regelwerke zur gezielten Kontrolle von KI

FAQ
Ab wann gelten die Vorgaben des AI-Acts
Mit der Veröffentlichung im Amtsblatt der Europäischen Union am 12. Juli 2024 tritt der AI Act mit 2. August 2024 in Kraft. Ab diesem Zeitpunkt laufen sämtliche Fristen für die Umsetzung durch den Staat, durch Unternehmen und andere Organisationen.
Seit dem 1. Februar 2025 dürfen verbotene KI -Systeme nicht mehr genutzt werden und Unternehmen sind verpflichtet, ihre Mitarbeitenden nachweislich über die eingesetzten KI -Systeme zu schulen.
Weitere Verpflichtungen, darunter Transparenzpflichten für generative KI , treten am 1. August 2026 in Kraft. Für Hochrisiko-KI-Systeme gilt eine verlängerte Übergangsfrist von 36 Monaten.
Für wen gilt die KI-Verordnung?
Die Verordnung gilt für alle Unternehmen, die KI-basierte Produkte oder Dienstleistungen anbieten oder nutzen. Insbesondere betrifft sie Anwendungen, die Inhalte generieren, Vorhersagen treffen oder Entscheidungsprozesse beeinflussen.
Risikobasierte Einstufung von KI-Systemen
- Verbotene KI:
Dazu zählen unter anderem Benotungssysteme für soziales Verhalten („Social Scoring“), Emotionserkennung am Arbeitsplatz oder biometrische Kategorisierung auf Basis sensibler Merkmale (z.B. politische Einstellung, sexuelle Orientierung). - Hochrisiko-KI:
Dazu gehören Anwendungen, die demokratische Prozesse, Grundrechte oder die Sicherheit beeinflussen. Diese unterliegen strengen Prüf- und Dokumentationspflichten. - Geringes Risiko:
Transparenzpflichten gelten insbesondere für generative KI-Modelle (z.B. ChatGPT). Inhalte müssen klar als KI-generiert gekennzeichnet sein.
Welche Strafen sind vorgesehen
- Verbotene KI-Systeme:
Bis zu 35 Millionen Euro oder 7% des Jahresumsatzes. - Verstöße gegen andere Vorschriften:
Bis zu 15 Millionen Euro oder 3% des Jahresumsatzes. - Falsche oder unvollständige Angaben:
Bis zu 7,5 Millionen Euro oder 1,5% des Jahresumsatzes.
Behörden und Verfahren
Jedem Mitgliedstaat obliegt es, eine oder mehrere zuständige nationale Behörden zu ernennen, die das Land im Europäischen Ausschuss für künstliche Intelligenz vertritt bzw. vertreten. Die EU-Kommission wird ein Europäisches KI-Büro einrichten, das KI-Modelle mit allgemeinem Verwendungszweck überwacht.