Ist Ihr Unternehmen auf die AI-Act-Schulungspflicht ab Februar 2025 vorbereitet?

  • Nächste Stufe des AI Acts tritt in Kraft: KI-Ausbildungspflicht ab
    Februar 2025
  • Unternehmen müssen ihre Teams trainieren, sonst drohen Strafen
  • Die wenigsten sind vorbereitet, doch es gibt praxistaugliche Lösungen

Ab dem 2. Februar wird die nächste Stufe des EU-KI-Gesetzes, des sogenannten AI Acts, wirksam. Alle für Unternehmen wichtigen Fragen zum KI-Gesetz beantworten wir in einem zweiten Blogbeitrag – hier gehen wir auf zwei neue Regeln, die ab sofort jedes Unternehmen in Deutschland betreffen:

  1. „Hochrisiko”-KI-Lösungen sind verboten.
  2. Sie müssen ihre Mitarbeitenden im Umgang mit KI ausbilden.

Der erste Punkt betrifft nur wenige Unternehmen, hier handelt es sich um KI mit „unannehmbarem Risiko“ wie Social Scoring. Der zweite Punkt hingegen geht alle Firmen an – und die allermeisten sind überhaupt nicht vorbereitet: Bisher hat erst einer von fünf Betrieben umfassende Ausbildungskonzepte aufgesetzt, wie eine aktuelle Umfrage des Bitkom unter deutschen Unternehmen zeigt. Die Befragung bestätigt die Ergebnisse, die im Sommer auch unsere AI Readiness-Studie ergeben hat.

Wer gegen den AI Act verstößt, dem drohen hohe Strafen

Den AI Act nicht ernst zu nehmen, ist nicht nur strategisch kurzsichtig, angesichts der massiven Disruption, die gerade Generative KI für unsere Arbeitswelt bringt. Es ist auch juristisch gefährlich: Denn die EU droht mit schweren Konsequenzen, sollten Firmen das KI-Gesetz missachten. Im schlechtesten Fall können dies Strafzahlungen bis zu 7 Prozent des Jahresumsatzes bzw. 35 Millionen Euro sein – deutlich mehr als es beispielsweise bei der Einführung der DSGVO 2018.

Schlupflöcher gibt es kaum, denn laut AI Act (Artikel 3, Absatz 4) müssen alle Unternehmen, die ein KI‑System in eigener Verantwortung verwenden, wie zum Beispiel ChatGPT oder DeepL, die Gesetze einhalten. In der EU-Terminologie sind dies die „Deployer“ (Artikel, 3, 3). Die Vorgaben in puncto Ausbildung gelten also nicht nur, wie teilweise kolportiert, für Anbieter von KI-Technologie.

Ausnahmen gibt es demnach nur, wenn ein Deployer ein KI-System in nicht-beruflicher Tätigkeit verwendet – was natürlich bei den wenigsten Firmen der Fall ist. Den Zusatz „in eigener Verantwortung“ spezifiziert der AI Act zunächst nicht weiter. In der Auslegung des Gesetzes wird noch auf „deployers (…) in their role as data controllers“ verwiesen. Allerdings ist auch das keine wirkliche Einschränkung, da Firmen in den meisten professionell genutzten Systemen ihre Daten selbst kontrollieren.

„Die meisten Entscheider:innen, mit denen wir sprechen, haben schlichtweg nicht mitbekommen, dass der AI Act in so elementaren Bereichen bereits so schnell greift“, sagt disruptive-Gründer Timm Rotter. „Sie haben vage von diesem KI-Gesetz gehört, mehr aber auch nicht.“

Viele Unternehmen sind noch auf dem Stand des „neugierigen Promptens“

Das passt zu einem weiteren Ergebnis der AI Readiness-Studie von disruptive, dass nämlich 80 Prozent der Mitarbeitenden ihre eigenen Firmen noch als ganz oder überwiegend unreif in Sachen KI einstufen. „Die meisten haben zwar einzelne Tools angeschafft und erste Pilotprojekte gestartet – was aber fehlt, das sind Business Cases, bei denen GenAI nachweislich hilft, Geld zu sparen oder Geld zu verdienen“, erklärt der disruptive-Chef. „Und da es ohne Business Cases schwierig ist, eine spezifische KI-Ausbildung anzubieten, machen viele Unternehmen zunächst einmal – nichts.“

Dass der AI Act eine Blackbox ist, daran trägt auch die deutsche Politik Mitschuld: Sie hat die nötigen Vorbereitungsmaßnahmen für Unternehmen bisher kaum kommuniziert – vermutlich auch, weil das deutsche KI-Gesetz, das den AI Act auslegen soll, in halbfertigen Zustand mit der Ampel auf der Strecke geblieben ist.

Eine Ausrede für Unternehmen ist dies allerdings nicht: Als EU-Verordnung ist der AI Act in jedem Mitgliedsland direkt anwendbares Recht, selbst wenn ein Umsetzungsgesetz und eine klare nationale Zuständigkeit noch fehlen.

Das wichtigste Gebot für Unternehmen: „Gebt euch erkennbar Mühe

Beim Thema KI-Ausbildung bleibt das EU-Gesetz recht vage und nennt keine klaren Volumina oder Inhalte. Aktuell können Unternehmen ihren Verpflichtungen schon dadurch nachkommen, dass sie sich erkennbar bemühen, ihre Mitarbeitenden passend zu den Einsatzfeldern von KI fortzubilden. „To their best extent“, nennt es die EU in Artikel 4 des AI Acts. Dabei sollte eine KI-Ausbildung laut AI Act:

  1. dem Vorwissen der einzelnen Mitarbeitenden entsprechen. „One-Size-Fits-All“-Ausbildungen, wie sie aktuell oft als Soforthilfe angepriesen werden, sind ineffizient. 
  2. die jeweils genutzte Technologie im Blick haben.
  3. zu den beruflichen Anforderungen passen.

Ganz wichtig wird sein, die Maßnahmen gut zu dokumentieren – die DSGVO lässt grüßen.

Ein Beispiel: Eine Beratungsfirma nutzt Generative KI zur Textarbeit und zum Research. Die Schulungspflicht gemäß AI Act würde daher für alle Mitarbeitenden gelten, die entweder eine der beiden Tätigkeiten ausüben oder aber deren Ergebnisse verarbeiten. Und sie sollte Tool-Kenntnis zu KI-Werkzeugen wie Chatbots umfassen, ebenso Grundwissen zur Funktionsweise von Large Language Models im Allgemeinen, Risiken wie Halluzinationen und rechtliche Grundlagen. Eine Ausbildung zum Einsatz von Video-KI hingegen wären in diesem Fall sicherlich nicht verpflichtend – weil das aktuell kein existierender Anwendungsfall ist.

Und Unternehmen tun nicht allein wegen des AI Acts und drohender Strafen aus der Ecke gut daran – wie sich am Beispiel besagter Beratungsfirma zeigen lässt. Das Unternehmen soll eine Markteintrittsstrategie entwickeln. Der für das Projekt zuständige Partner verlässt sich beim Research, ob der Kunde Markt A oder B angehen soll, auf die Ergebnisse der KI. Die Expansion scheitert krachend, und bei der Aufarbeitung kommt raus, dass die KI halluziniert hat. Dem Kunden ist ein Schaden entstanden. Vor Gericht würde hier das Verschuldenprinzip gelten.

Die Beratung haftet also nur, wenn sie auch schuldhaft gehandelt hat. Hat sie ihre Consultants also nicht über die Risiken im Umgang mit Chatbots aufgeklärt, kann es sein, dass sie schadenersatzpflichtig ist. Hat sie das hingegen getan und auch klare KI-Guidelines aufgestellt, könnte die Firma den jeweiligen Mitarbeiter selbst – zumindest teilweise – in Haftung nehmen oder zumindest disziplinarisch abmahnen.

Es braucht skalierbare, digitale Lernmöglichkeiten – sonst wird GenAI-Lernen für Unternehmen zu teuer und zu langsam

Zugleich muss eine sinnvolle KI-Ausbildung zum beruflichen Alltag passen. In den vergangenen zwei Jahren haben Firmen vor allem auf Präsenzformate oder Live-Meetings gesetzt. Sicherlich zurecht, da sich solche Sessions gut eignen, um Engagement auf- und Berührungsängste abzubauen. Allerdings zeigt die Entwicklung gerade im Bereich GenAI, dass sie allein nicht das Rückgrat einer Ausbildung bilden können: 

„Als Auftakt sind sie oft genau das richtige Format, weil sie Verbindlichkeit ausdrücken und die Motivation im Team stärken“, bestätigt Rotter aus der Erfahrung von zwei Jahren KI-Beratung. „Dauerhaft aber beanspruchen sie zu viel Zeit, und die Gefahr ist groß, nicht allen Teilnehmer:innen gerecht zu werden, wenn die Wissensstände in den Gruppen zu unterschiedlich sind.“ 

Zudem passiert im Bereich GenAI so schnell so viel Neues, dass man nicht mit einem Kurs ausgebildet ist, wie vielleicht beim Thema Korruptionsbekämpfung der Fall.

Umso wichtiger sind digitale Angebote mit regelmäßigen, modularen Formaten, die die Teilnehmerinnen dann nutzen können, wenn sie Muße zum KI-Lernen haben. Das kann im Zug auf dem Weg zum Kunden oder auf der heimischen Couch sein. Auf diese unterschiedlichen Anwendungsfälle muss sich die GenAI-Ausbildung einstellen.

Genau das leistet unsere „disruptive KI-Akademie“, eine im Herbst gelaunchte, digitale Lernplattform für individuelle und bezahlbare KI-Trainings – skalierbar auf verschiedene, auch mehrsprachige Teams, DSGVO-konform und mit diversen Lernpfaden so konzipiert, dass die Ausbildung zu den jeweils relevanten Anwendungen im Alltag passt. 

„Das Tolle ist: Die Motivation der meisten Lernenden ist riesig, weil sie bei ersten eigenen Versuchen gesehen haben, dass ihnen KI viel Arbeit abnimmt“, sagt Rotter. „Dieses Momentum sollten Unternehmen jetzt nutzen, dann schlagen sie zwei Fliegen mit einer Klappe: Sie erfüllen die EU-Anforderungen und stärken ihre Wettbewerbsfähigkeit. Denn eines dürfte inzwischen klar sein: Es wird nicht KI sein, die uns die Jobs wegnimmt. Vielmehr werden die KI-Anwender:innen diejenigen abhängen, die nicht mit KI arbeiten.“

Hinweis: Dieser Text über den AI Act für Unternehmen basiert auf gründlichen Recherchen und Gesprächen mit Expert:innen, ist aber keine belastbare juristische Bewertung. Wir übernehmen keine Haftung für eventuelle Fehleinschätzungen. Beachten Sie zudem, dass es sich beim AI Act um ein laufendes Gesetzgebungsverfahren handelt. Änderungen an den genannten Anforderungen sind möglich.

Nach oben scrollen