„Wir wollen nicht bremsen, sondern die Zukunft gestalten“

Professor Martin Ebers über Aufgabenbereiche und Ziele der Robotics AI & Law Society (RAILS)

Von Prof. Dr. Martin Ebers

Künstliche Intelligenz (KI) durchdringt immer mehr Bereiche unseres Lebens. Daraus ergeben sich neue Chancen, aber auch neue Herausforderungen. Die Robotics AI & Law Society (RAILS) hat es sich zum Ziel gesetzt, diesen Wandel aktiv zu begleiten: Mit einem interdisziplinären Ansatz und der Vision, intelligente Systeme verantwortungsvoll zu gestalten, bringt sich RAILS in die politische und wissenschaftliche Debatte ein, um KI von Anfang an einen rechtlichen Rahmen zu geben, der Entwicklung ermöglicht, demokratische Grundprinzipien schützt und Diskriminierung vermeidet. Professor Dr. Martin Ebers, Mitbegründer von RAILS, gibt im Interview einen Einblick in die Ziele und Aufgaben der Gesellschaft und spricht auch über die Chancen und Herausforderungen, die er für den Einsatz von KI in der juristischen Arbeit sieht.

Robotics AI & Law Society
Was gehört zu den Aufgaben der Robotics AI & Law Society (RAILS)? © Adobe Stock/pickup

Herr Professor Ebers, die Robotics AI & Law Society (RAILS) wurde von Ihnen bereits 2017 mitbegründet – weit vor dem ersten Hype um ChatGPT. Was war der Anlass für die Gründung und welche Ziele verfolgt RAILS?

Wir haben uns zum Ziel gesetzt, den gesellschaftlichen Wandel, der durch den Einsatz intelligenter Systeme rasant voranschreitet, aktiv zu begleiten. RAILS will die sich daraus ergebenden Herausforderungen adressieren und die Diskussion um den gegenwärtigen und zukünftigen nationalen und internationalen Rechtsrahmen für Künstliche Intelligenz (KI) und Robotik in wissenschaftlicher Hinsicht mitgestalten, indem regulatorischer Handlungsbedarf identifiziert und konkrete Handlungsempfehlungen erarbeitet werden.

Ziel ist es, intelligente Systeme verantwortungsvoll zu gestalten – das heißt, diese von Anbeginn Anfang an mit einem Rechtsrahmen zu versehen, der technische Entwicklungen ermöglicht, Diskriminierungen vermeidet, Gleichbehandlung und Transparenz gewährleistet, demokratische Grundprinzipien wahrt und eine angemessene Teilhabe aller Akteure an den wirtschaftlichen Ergebnissen der Digitalisierung eröffnet.

Besonders wichtig ist uns dabei ein interdisziplinärer Ansatz und das Selbstverständnis, nicht als Bremser, sondern als Gestalter der Zukunft zu agieren.

Was zählt zum Aufgabenbereich von RAILS?

Entsprechend unserer Zielsetzung bringen wir uns möglichst umfassend in die wissenschaftliche sowie politische Debatte ein. Wir organisieren viele spannende, zumeist monatlich stattfindende Workshops, Webinare, Vorträge sowie einmal im Jahr eine interdisziplinäre Tagung an wechselnden Standorten. In diesem Jahr (2023) fanden sogar zwei Konferenzen statt: eine zum Einsatz von KI und Robotik in der Medizin und eine zum Thema „Generative KI“ – wozu auch ChatGPT zählt.

Die Nachwuchsförderung liegt uns besonders am Herzen. Deswegen loben wir jedes Jahr den „RAILS Paper Award“ aus. Daneben bieten wir über unseren Blog eine Plattform zum öffentlichen Diskurs. Besonders hervorzuheben ist zudem unsere Tätigkeit im Forschungsverbund mit Akteuren ausWissenschaft und Praxis – wir sind an mehreren Forschungsprojekten beteiligt, so unter anderem in Kooperation mit dem MIRMI (Munich Institute of Robotics and Machine Intelligence) der TU München.

Seitdem ChatGPT Ende 2022 der Öffentlichkeit zugänglich gemacht wurde, hat die Diskussion über den Einsatz von Künstlicher Intelligenz auch in der Rechtsbranche an Fahrt aufgenommen. Welche Chancen und Herausforderungen sehen Sie hier für den Einsatz von Künstlicher Intelligenz in der juristischen Arbeit?

Der Einsatz von KI in der juristischen Arbeit hat viele Vorteile, insbesondere unter dem Gesichtspunkt der Effizienz. Durch die Automatisierung von Prozessen können nicht nur Kosten, sondern auch Zeit eingespart werden. Den Juristinnen und Juristen bleiben dann mehr Ressourcen, um sich der komplexeren Arbeit zu widmen. Gleichzeitig kann die Qualität der Arbeitsergebnisse verbessert werden. KI kann dazu beitragen, dass weniger Fehler gemacht werden und Emotionen oder Voreingenommenheiten nicht in den Prozess einfließen. Daneben kann einer größeren Anzahl von Bürgerinnen und Bürgern ein Zugang zum Recht ermöglicht werden.

Andererseits sind aber auch die Risiken zu berücksichtigen, die insbesondere davon abhängen, ob KI in der Rechtsberatung, in der Verwaltung oder bei Gericht eingesetzt wird.

Ein grundsätzliches Problem ist, dass die Qualität der Ergebnisse sehr von den Trainingsdaten abhängt. Durch unvollständige, verzerrte oder gar fehlerhafte Daten besteht das Risiko, dass diskriminierende oder falsche Ergebnisse erzielt werden.

KI-Anwendungen sind zudem nicht in der Lage, komplexe Abwägungsvorgänge vorzunehmen, Beurteilungs- oder Ermessensspielräume auszufüllen oder dem Rechtssuchenden auf menschlicher Ebene mit der erforderlichen Empathie zu begegnen. Daneben stellen sich auch datenschutzrechtliche sowie ethische Fragen. KI-Anwendungen sind zudem häufig intransparent und komplex, sodass die Prozesse nur schwer nachvollziehbar und kontrollierbar sind. Daraus ergibt sich die Frage, wer für potenzielle Fehler verantwortlich ist. Zu berücksichtigen ist auch, dass KI-Anwendungen sowohl ein technisches Verständnis als auch angemessene technische Mittel erfordern.

In der Rechtsberatung ist vor allem das anwaltliche Berufsrecht zu beachten. Neben der Verschwiegenheitspflicht und dem Gebot der gewissenhaften Berufsausübung könnte auch die anwaltliche Unabhängigkeit gefährdet sein. Zudem besteht das Risiko, dass Anwälte und Anwältinnen sich zu sehr auf KI-Anwendungen verlassen. Dies kann die Qualität der anwaltlichen Beratung beeinträchtigen. In der Verwaltung stößt der Einsatz künstlicher Intelligenz vor allem wegen der mangelnden technischen Infrastruktur auf Probleme. Im Justizbereich ist zu beachten, dass KI eine richterliche Entscheidung nicht ersetzen, sondern bestenfalls vorbereiten kann.

Insgesamt bringt der Einsatz von KI in der juristischen Arbeit, vor allem in der unterstützenden Tätigkeit erhebliche Vorteile mit sich. Gleichzeitig dürfen aber die Risiken nicht unterschätzt werden.

Wie beurteilen Sie den aktuellen nationalen und internationalen Rechtsrahmen für KI? Welchen Handlungsbedarf sehen Sie?

Auf nationaler Ebene hat vor allem die deutsche Datenethikkommission Pionierarbeit geleistet. Der von der Datenethikkommission entwickelte risikobasierte Ansatz zur Regulierung von KI in Form einer „Kritikalitätspyramide“ wurde auch von der Europäischen Kommission in ihrem Vorschlag für eine KI-Verordnung aufgegriffen. Auf europäischer Ebene wird derzeit versucht, in den Trilog-Verhandlungen bis Ende 2023/Anfang 2024 einen politischen Kompromiss zu erzielen, damit die KI-Verordnung noch vor den Wahlen zum Europäischen Parlament verabschiedet werden kann.

Grundsätzlich ist der risikobasierte Ansatz des KI-Verordnungsvorschlags zu begrüßen. Problematisch ist, dass das Europäische Parlament derzeit versucht, Regelungen für sog. „foundation models“ oder „Basismodelle“ in die KI-Verordnung aufzunehmen, also für Modelle wie GPT (von OpenAI/Microsoft) oder LLaMa (von Meta), die unabhängig von konkreten Anwendungsfällen und Risiken greifen sollen. Dies widerspricht nicht nur dem risikobasierten Ansatz, sondern könnte auch dazu führen, dass europäische Unternehmen einen Wettbewerbsnachteil erleiden und keine eigenen Modelle auf den Markt bringen können.

Welche konkreten Empfehlungen hat RAILS bisher für den Umgang mit Künstlicher Intelligenz entwickelt?

Wir bringen uns aktiv in den Diskussionsprozess ein, insbesondere durch Positionspapiere. Besonders den Kommissionsentwurf für eine KI-Verordnung haben wir kritisch kommentiert. Daneben begleiten wir viele andere Legislativvorhaben durch Stellungnahmen und Konsultationen, so insbesondere die bevorstehende Novellierung des KI-Haftungsrechts auf europäischer Ebene durch die neue Produkthaftungsrichtlinie sowie die KI-Haftungsrichtlinie. Im Datenschutzrecht habe ich mit zwei Kollegen Überlegungen entwickelt, wie datenschutzrechtliche Risiken beim Training und Einsatz von KI durch ein sogenanntes „Anonymity Risk Assessment“ minimiert werden können. Auch für den Einsatz von KI und Robotik in der Medizin und Pflege sind wir gerade dabei, Handlungsempfehlungen zu entwickeln.

Abschließend eine Frage an alle, die an einer Mitgliedschaft bei RAILS interessiert sind: Wer kann Mitglied bei RAILS werden und was sind Ihrer Meinung nach die größten Vorteile einer Mitgliedschaft?

Wir freuen uns über jedes neue Mitglied, unsere Tür steht allen offen! Die Mitgliedschaft kann unkompliziert über unser Onlineformular beantragt werden.

Mit einem monatlichen Newsletter informieren unsere Mitglieder regelmäßig über aktuelle Entwicklungen. Als Mitglied kann man zudem kostenlos an allen Tagungen und Workshops teilnehmen. Außerdem werden alle Webinare von uns aufgezeichnet und exklusiv unseren Mitgliedern zur Verfügung gestellt. Darüber hinaus bietet die RAILS-Mitgliedschaft die Möglichkeit zur Vernetzung und Gestaltung. Wer bei uns Mitglied wird, kann sich aktiv in unser großes Netzwerk einbringen – in Deutschland, aber auch international!

Prof. Dr. Martin Ebers

Martin Ebers ist Professor für IT-Recht an der Universität Tartu (Estland), Präsident der Robotics & AI Law Society (RAILS) und habilitierter Privatdozent an der Juristischen Fakultät der Humboldt-Universität zu Berlin. Seit 2023 ist Prof. Ebers zudem Wallenberg Gastprofessor in Schweden (WASP-HS, Wallenberg Program on Humanities and Society for AI and Autonomous System - Universität Örebro). Zuletzt sind von ihm folgende Bücher erschienen: "Algorithms and Law" (Cambridge University Press, 2020), "Rechtshandbuch Künstliche Intelligenz und Robotik" (C.H. Beck Verlag, 2020), "Contracting and Contract Law in the Age of Artificial Intelligence" (Hart Publishing, 2022), und "Stichwortkommentar Legal Tech" (Nomos Verlag, 2023).

 

Nach oben scrollen