Die EU-Mitgliedstaaten haben am 21. Mai 2024 das weltweit erste Gesetz zur Regulierung von KI verabschiedet. Zweck der Verordnung ist es, einen einheitlichen „Rechtsrahmen insbesondere für die Entwicklung, das Inverkehrbringen, die Inbetriebnahme und die Verwendung von Systemen künstlicher Intelligenz (KI-Systeme) in der Union im Einklang mit den Werten der Union (…)“ festzulegen. Dadurch sollen ein Schutz vor schädlichen Auswirkungen von KI-Systemen gewährleistet und zugleich Innovationen unterstützt werden. Die KI-Verordnung ist seit 1. August 2024 in Kraft. Ihre Regelungen gelten überwiegend ab dem 2. August 2026. Jedoch sind einige Regelungen schon ab 2. Februar 2025 (Kapitel I und II) und weitere ab dem 2. August 2025 gültig. Der Kölner Fachanwalt für Arbeitsrecht Volker Görzel, Leiter des Fachausschusses „Betriebsverfassungsrecht und Mitbestimmung“ des VDAA – Verband deutscher ArbeitsrechtsAnwälte e.V. mit Sitz in Stuttgart erklärt, was es zu beachten gilt.
Millionenstrafen für Verstöße
Bereits seit dem 2. Februar 2025 sind laut Görzel KI-Systeme mit „unannehmbarem Risiko“ verboten. Doch seit dem 2. August 2025 werde es ernst: „Unternehmen, die gegen bestehende Pflichten verstoßen, müssen mit Geldbußen von bis zu 35 Mio. Euro oder 7% des Jahresumsatzes rechnen.“ Ebenfalls bis August 2025 müssen alle EU-Staaten nationale KI-Aufsichtsbehörden benennen, erklärt der Fachanwalt. Diese kontrollieren, ob eingesetzte Systeme den Vorgaben entsprechen. In Deutschland könnten dies seiner Einschätzung nach die Bundesnetzagentur und die Bundesakkreditierungsstelle werden.
So stuft die EU KI-Systeme ein
Der AI-Act unterscheidet laut Görzel zwischen drei Risikostufen:
- Unannehmbares Risiko – verboten (z.B. Social Scoring, Echtzeit-Gesichtserkennung)
- Hohes Risiko – strenge Prüf- und Dokumentationspflichten (z.B. KI im Recruiting oder in Prüfungsverfahren)
- Minimales Risiko – keine Pflichtauflagen, aber freiwillige Verhaltenskodizes möglich
Kennzeichnungspflicht für KI-generierte Inhalte
Zwecks Transparenz ist vor allem Folgendes zu beachten: „Bilder, Texte, Videos oder Audios, die durch KI erzeugt oder verändert wurden, müssen klar als KI-generiert gekennzeichnet sein. Deepfakes oder bearbeitete Medien dürfen nicht mehr ohne Hinweis verbreitet werden“, schreibt Görzel. Unternehmen rät er, jetzt zu prüfen, welche ihrer eingesetzten Systeme unter den AI-Act fallen – und ihre Mitarbeitenden gezielt zu schulen.
KI im Bereich Human Resources
Ein besonderer Fokus der Regularien liegt auf der KI-Verwendung im Bereich Personalmanagement. Software, die Bewerbungen filtert, Mitarbeiter bewertet oder Lernleistungen analysiert, werde oft als Hochrisiko-System eingestuft, erläutert der Experte. Arbeitgeber müssten hier ein Risikomanagementsystem einführen und die Systeme regelmäßig prüfen lassen. Görzel empfiehlt: „Wer KI-Systeme im Recruiting oder in der Personalverwaltung nutzt, sollte frühzeitig rechtliche Beratung einholen. Verstöße gegen den AI-Act können nicht nur teuer, sondern auch rufschädigend sein.“










