Der neue AI-Act der EU: Welche Auswirkungen hat die geplante KI-Regulierung auf ChatGPT und Co.?

Von Tom Braegelmann

Die EU hat sich vorgenommen, KI in einem eigenen Gesetz zu regeln. Die EU-Kommission hat dazu als unmittelbar geltende Rechtsverordnung einen sogenannten „AI Act“ („Gesetz über Künstliche Intelligenz”) vorgeschlagen. Dazu haben Beratungen zusammen mit dem Rat und dem Parlament der EU, im sogenannten Trilog stattgefunden. Im Dezember 2023 hat es dazu eine politische Einigung gegeben, es wird also aller Voraussicht nach tatsächlich den AI Act geben (voraussichtlich erst ab Mitte 2024, mit Inkrafttreten nicht vor 2025).

ai-act-eu
Adobe Stock/©Jorge Ferreiro

Allerdings befindet sich der finale Text noch in Arbeit (ein FAQ dazu gibt es aber bereits). Der endgültige Text des AI Acts ist Anfang 2024 zu erwarten. In diesem Beitrag erfahren Sie, welche Definition von Künstlicher Intelligenz die EU dem AI-Act zugrunde legt und wie KI-Chatbots künftig reguliert werden sollen.

Wie definiert die EU Künstliche Intelligenz?

Die OECD hat Ende 2023 eine überarbeitete Definition das Rechtsbegriff der Künstlichen Intelligenz verabschiedet, der sich die EU im AI Act voraussichtlich anschließen wird. Diese Definition lautet (in einfacher deutscher Übersetzung):

KI-System: Ein KI-System ist ein maschinengestütztes System, das für explizite oder implizite Ziele aus den empfangenen Eingaben ableitet, wie es Ausgaben wie Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen generieren kann, die physische oder virtuelle Umgebungen beeinflussen können. Verschiedene KI-Systeme unterscheiden sich in ihrem Grad an Autonomie und Anpassungsfähigkeit ab ihrem Einsatz.

Diese Definition ist sehr weit und es kann lange darüber diskutiert werden, was sie eigentlich rechtlich bedeutet. Klar ist jedenfalls, dass ein KI-System Informationen verarbeitet. Damit ist die rechtliche Dimension bereits eröffnet. Deutlich wird aber auch: Keines der derzeit existierenden KI-Systeme hat in irgendeiner Form ein Bewusstsein oder kann denken. Es handelt sich immer noch um Software, die von Menschen eingesetzt wird, selbst wenn sie partiell autonom agiert.

Art. 28 b des AI Acts: Regelung von Basismodellen und Chatbots

Dem Europäischen Parlament war es sehr wichtig, dass auch die Urheberinnen und Urheber durch den AI Act geschützt werden. Deshalb hat das Europäische Parlament zum Entwurf des AI Acts Mitte 2023 wichtige Ergänzungen in einem neuen Art. 28 b vorgeschlagen, um insbesondere Basismodelle, also KIs wie ChatGPT, welche mit riesigen Datenmengen trainiert wurden, zu regulieren. Das ist im Moment die Art von KI, die für die Meisten am interessantesten ist, weil sie flexibel und vielseitig einsetzbar ist.

Art. 28 b Abs. 1 besagt im Prinzip, wer sich nicht an diesen Artikel hält, darf so ein Basismodell weder in Betrieb nehmen noch bereithalten, wenn die weiteren Anforderungen dieses Artikels nicht erfüllt sind. Es ist also eine Art Verbot mit Erlaubnisvorbehalt. Und das würde gelten, wenn sich das Europäische Parlament durchsetzt,

„unabhängig davon, ob [das Basismodell] als eigenständiges Modell oder eingebettet in ein KI-System oder ein Produkt oder unter freien und Open-Source-Lizenzen als Dienstleistung sowie über andere Vertriebskanäle bereitgestellt wird.“

Die Anbieterin oder der Anbieter muss

„durch geeignete Planung, Erprobung und Analyse die Identifizierung, Verringerung und Abschwächung von vernünftigerweise vorhersehbaren Risiken für Gesundheit, Sicherheit, Grundrechte, Umwelt sowie Demokratie und Rechtsstaatlichkeit vor und während der Entwicklung mit geeigneten Methoden, z. B. unter Einbeziehung unabhängiger Experten und Expertinnen, sowie die Dokumentation der verbleibenden nicht abwendbaren Risiken nach der Entwicklung nachweisen.“

Dieser Vorschlag des Europäischen Parlamentes impliziert bereits, dass bei einer Beeinträchtigung von Gesundheit, Sicherheit, Grundrechten, der Umwelt, Demokratie und Rechtsstaatlichkeit durch KI die betreffende KI bzw. ihre Anbieterin oder ihr Anbieter ohne Betriebserlaubnis agiert hat. Eine Haftung wäre dann schon sehr naheliegend. Hinzu kommt, dass der Artikel auch verschärfte Regeln für Generative KI wie ChatGPT vorsieht:

Anbieter von Basismodellen, die in KI-Systemen verwendet werden, die speziell dazu bestimmt sind, mit unterschiedlichem Grad an Autonomie Inhalte wie komplexe Texte, Bilder, Audio- oder Videodateien zu generieren („generative KI“), sowie Anbieter, die ein Basismodell in ein generatives KI-System integrieren, müssen zusätzlich (…) das Basismodell so gestalten und gegebenenfalls weiterentwickeln, dass ein angemessener Schutz gegen die Erzeugung von Inhalten, die gegen das Unionsrecht verstoßen, nach dem allgemein anerkannten Stand der Technik und unbeschadet der Grundrechte, einschließlich des Rechts auf freie Meinungsäußerung, sichergestellt ist; (und )unbeschadet der Rechtsvorschriften der Union oder der Mitgliedstaaten oder der Union zum Urheberrecht eine hinreichend detaillierte Zusammenfassung der Verwendung von urheberrechtlich geschützten Ausbildungsdaten dokumentieren und öffentlich zugänglich machen.

Konkret bedeutet dies, dass solche KIs, die keinen Schutz gegen die Erzeugung von rechtswidrigen Inhalten vorsehen, nicht betrieben oder bereitgestellt werden dürfen. Werden urheberrechtlich geschützte Werke verwendet, muss dies offengelegt werden. Geschieht dies unter Verletzung von Urheberrechten, haben die betreffenden Rechteinhaber:innen durch diese Dokumentation evtl. sogleich die Grundlage für Schadensersatz- und Unterlassungsansprüche. Es bleibt abzuwarten, inwieweit sich dieser Textvorschlag des Europäischen Parlamentes auch im finalen Text des AI Acts ganz oder modifiziert oder stark abgeschwächt wiederfinden wird.

Fazit

Der geplante AI Act der EU zielt darauf ab, die Verwendung und Entwicklung von KI-Systemen, einschließlich Chatbots wie ChatGPT, einer strengen Regulierung zu unterwerfen. Ein KI-Anbieter oder eine KI-Anbieterin (der oder die ein Basismodell nutzt) muss vorab genau prüfen, ob seine oder ihre KI eventuell Risiken für Gesundheit, Sicherheit, Grundrechte, Umwelt sowie Demokratie und Rechtsstaatlichkeit schafft, keine Inhalte erzeugt, die gegen das gesamte EU-Recht verstoßen könnten und offenlegen, ob er oder sie urheberrechtlich geschützte Inhalte für die Erstellung seiner oder ihrer KI gebraucht hat. Obwohl der endgültige Text des AI Acts noch aussteht, deutet die politische Einigung darauf hin, dass eine strengere Regulierung von KI-Systemen in der EU bevorsteht, was tiefgreifende Auswirkungen auf Anbieter:innen und Nutzer:innen dieser Technologien haben wird.

Tom Braegelmann

Tom Braegelmann ist Rechtsanwalt bei der Kanzlei Annerton. Er ist ein international erfahrener Insolvenz- und Restrukturierungsexperte, war zuvor für namhafte Wirtschaftskanzleien tätig und ist sowohl in Deutschland als auch in den USA als Anwalt zugelassen. Als Anwalt mit Schwerpunkt auf Bankruptcy Law/Insolvenz- und Urheberrecht war er über drei Jahre in New York tätig. Tom Braegelmann ist bestens vertraut mit den neuesten technologischen juristischen Entwicklungen, insbesondere mit der Digitalisierung des Wirtschafts-, Restrukturierungs- und Insolvenzrechts.
Nach oben scrollen