AI Act: Neue EU-Vorgaben ab Februar 2025

Was Kanzleien und Unternehmen jetzt wissen müssen

Der AI Act der Europäischen Union ist ein Regelwerk, das geschaffen wurde, um die Chancen von Künstlicher Intelligenz (KI) zu fördern und zugleich die damit aus Sicht der Europäischen Union verbundenen Risiken effektiv zu adressieren. Angesichts des immer rascheren technologischen Fortschritts und der wachsenden Bedeutung von KI-Systemen für Wirtschaft, Gesellschaft und Verwaltung verfolgt der AI Act einen differenzierten Ansatz: Einerseits sollen Innovation und Wettbewerbsfähigkeit im europäischen Binnenmarkt gestärkt werden, andererseits legt der AI Act großen Wert auf den Schutz grundlegender Rechte, die Sicherheit und die Gesundheit aller Bürgerinnen und Bürger.

ai-act-2025
Die KI-Verordnung der EU: Diese Vorgaben sind im Februar in Kraft getreten. ©Adobe Stock/kik

Ein Kernziel des AI Act besteht darin, Vertrauen in KI-Systeme zu schaffen und Standards für deren verantwortungsvollen Einsatz zu setzen. Das Regelwerk beruht dabei auf einem risikobasierten Konzept, bei dem verschiedene Kategorien von KI-Anwendungen – von geringem bis zu hohem Risiko – je nach potenzieller Gefährdung unterschiedlich reguliert werden. Damit zielt der AI Act nicht nur auf die Minimierung schädlicher Auswirkungen für Individuen und Gruppen ab, sondern strebt auch einen einheitlichen Ordnungsrahmen für alle Marktteilnehmer an.

1. Timeline

Obwohl der AI Act bereits am 1. August 2024 formell in Kraft getreten ist, finden die konkreten Kapitel nicht direkt Anwendung. Vielmehr hat sich der Verordnungsgeber entschieden, die einzelnen Kapitel des AI Acts schrittweise umzusetzen, um den Beteiligten ausreichend Zeit zur Vorbereitung auf das umfangreiche Regelwerk zu geben. Einer der ersten entscheidenden Termine ist dabei der 2. Februar 2025. Ab diesem Datum kommen die in den Kapiteln I und II des AI Acts enthaltenen Regelungen zur Anwendung, zu denen insbesondere die Vorschriften zur „AI Literacy“ (Artikel 4 AI Act) und zu den verbotenen KI-Praktiken (Artikel 5 AI Act) zählen.

Ab dem 2. August 2025 treten weitere Bestimmungen des AI Acts in Kraft, die sich vor allem mit General Purpose AI (KI-Systeme mit allgemeinem Verwendungszweck), zusätzlichen Governance-Strukturen und weiteren spezifischen Anforderungen an KI-Systeme befassen. Dann folgen u. a. ab dem 2. August 2026 zusätzliche Regeln für Hochrisiko-KI-Systeme sowie erweiterte Maßnahmen zur Marktüberwachung.

2. Artikel 4 AI Act – AI Literacy

Der bereits seit dem 2. Februar 2025 wirksam gewordene Art. 4 AI Act sieht vor, dass in allen Bereichen, in denen KI-Systeme entwickelt, betrieben oder genutzt werden, das nötige Wissen und Verständnis bei Mitarbeiterinnen und Mitarbeitern vorliegen muss. Konkret betrifft dies sowohl technisches Know-how als auch die Fähigkeit, rechtliche und ethische Aspekte in den Blick zu nehmen.

Eine wesentliche Rolle spielt dabei die Entwicklung des Bewusstseins bei Mitarbeitern und Mitarbeiterinnen für die Funktionsweise von KI-Verfahren und Algorithmen. Mitarbeiterinnen und Mitarbeiter, die in Unternehmen oder in einer öffentlichen Einrichtung mit KI arbeiten, sollen verstehen, wie maschinelles Lernen funktioniert, welche Datengrundlagen notwendig sind und wie sich Ergebnisse richtig interpretieren lassen. Darüber hinaus fordert Artikel 4 AI Act, dass die potenziellen Risiken von KI-Systemen klar vermittelt werden. Hier geht es beispielsweise um Verzerrungen (Bias), Datenschutzthemen oder die Frage, welche Folgen Fehler in einem automatisierten Entscheidungsprozess haben können.

Um diese AI Literacy zu erreichen, sieht der AI Act u.a. zielgruppenspezifische Schulungen und Workshops, die Entwicklung von internen Richtlinien und Prozessen sowie die mögliche Ernennung von KI-Beauftragten vor.

3. Artikel 5 AI Act – Verbotene KI-Praktiken

Artikel 5 AI Act legt fest, welche Anwendungen von KI aufgrund ihres unvertretbaren Risikos innerhalb der EU verboten sind. Dabei handelt es sich um Praktiken, die das Vertrauen in KI massiv untergraben oder zu erheblichen Beeinträchtigungen für Einzelpersonen und ganze Gesellschaftsgruppen führen können. Die EU-Kommission hat dazu am 04.02.2025 einige Leitlinien zur Auslegung von Art. 5 AI Act erlassen. Diese Leitlinien bieten eine Interpretation der Verbote nach Art. 5 AI Act, um deren einheitliche Anwendung zu gewährleisten. Sie geben praktische Hinweise für Behörden, Anbieter und Anwender von KI-Systemen.

So untersagt der AI Act zum Beispiel jegliche Form von KI-Systemen, die auf subtile Manipulation oder Täuschung abzielen. Darunter fallen etwa Technologien, die Menschen dazu bringen sollen, Entscheidungen zu treffen, die sie ohne die KI-Beeinflussung nicht oder anders getroffen hätten. Verboten sind somit z. B. manipulative Chatbots, die Entscheidungen beeinflussen, ohne dass Nutzer oder Nutzerinnen es bewusst wahrnehmen.

Ebenfalls verboten werden KI-Systeme, die gezielt die Schwachstellen bestimmter Bevölkerungsgruppen ausnutzen, etwa bei älteren Menschen, Kindern oder Personen in prekären Situationen. Somit ist beispielsweise untersagt die gezielte Ausnutzung von Schwächen, etwa wenn eine KI ältere Menschen durch aggressive Werbemechanismen zu unnötigen Käufen verleitet.

Zudem rückt der AI Act Praktiken wie Social Scoring oder die ausschließlich profilbasierte Vorhersage künftiger Straftaten in den Fokus. Auch das massenhafte Scraping von Bilddaten aus dem Internet zum Aufbau von Gesichtserkennungsdatenbanken ohne konkreten Anlass ist nach Art. 5 AI Act unzulässig.

Auch ist es nach Art. 5 AI Act verboten, wenn KI-Systeme zur Ableitung von Emotionen (z. B. Stress, Depressionen etc.) am Arbeitsplatz und in Bildungseinrichtungen eingesetzt werden.

Schließlich ist der Einsatz von Echtzeit-Gesichtserkennung in öffentlichen Räumen untersagt, es sei denn, es geht um die gezielte Suche nach vermissten Personen oder die Verhinderung von Terroranschlägen.

Mit all diesen Verboten setzt der AI Act deutliche Grenzen für den Einsatz von KI, sobald elementare Grundrechte oder die Sicherheit der Bürgerinnen und Bürger auf dem Spiel stehen. Wer gegen diese Verbote nach Art. 5 AI Act verstößt, muss mit Strafen von bis zu 35 Millionen Euro oder 7 Prozent des weltweiten Jahresumsatzes rechnen (Art. 99 Abs. 3 AI Act).

4. Fazit: EU sendet erste klare Signale

Der AI Act stellt einen umfassenden Versuch der Europäischen Union dar, Künstliche Intelligenz rechtlich zu regeln und ihr enormes Potenzial in geordnete Bahnen zu lenken. Dabei betont die Verordnung gleichermaßen den Schutz von Individuen, die Verhinderung unkontrollierter Risiken und die Förderung der Wettbewerbsfähigkeit auf dem Binnenmarkt. Mit dem Fokus auf AI Literacy (Artikel 4 AI Act) sowie den verbotenen KI-Praktiken (Artikel 5 AI Act) setzt die EU schon ab dem 2. Februar 2025 erste klare Signale.

Anbieter und Betreiber von KI-Systemen sollten daher unbedingt die Frist vom 2. Februar 2025 im Auge behalten, um die Anforderungen des Artikel 4 AI Actes rechtzeitig und umfassend umzusetzen. Dazu gehören Schulungsmaßnahmen für die Belegschaft, robuste Compliance-Strukturen und transparente Prozesse, um KI-Lösungen ethisch und rechtlich einwandfrei zu gestalten. Ferner ist die Überprüfung bestehender KI-Systeme auf mögliche verbotene KI-Praktiken erforderlich. Die Überprüfung bestehender KI-Systemen ist somit nicht zuletzt im Hinblick auf die erheblichen Bußgelder geboten.

Martin Figatowski

Martin Figatowski ist Rechtsanwalt in der Kanzlei GTK Rechtsanwälte mit besonderem Fokus auf die Besteuerung von Kryptowährungen sowie blockchainbasierten Geschäftsmodellen.

Nach oben scrollen