Die neue Kollegin heißt KI: Rechtliche Rahmenbedingungen für eine verantwortungsvolle Nutzung von Künstlicher Intelligenz

Spätestens seit der Veröffentlichung von ChatGPT im Jahr 2022 diskutiert die juristische Profession intensiv über die Einsatzmöglichkeiten und rechtlichen Grenzen von KI-Systemen, die bekannte berufsrechtliche Herausforderungen in ein neues Licht rücken. Wo Künstliche Intelligenz in der Kanzlei bereits gut eingesetzt werden kann, welche Herausforderungen bestehen und welche rechtlichen Risiken es gibt, beleuchtet dieser Beitrag.

KI Kanzlei
KI verändert die juristische Arbeit. ©Adobe Stock/ jesussanz

Potentiale von KI in der juristischen Praxis: Dokumentenerstellung und -analyse

Moderne KI-Systeme bieten bereits heute viele Möglichkeiten. Sie können große Datenmengen sekundenschnell und parallel analysieren und bei der Auswertung komplexer Vertragsdokumente unterstützen, und diese z. B. auf sachliche oder rechtliche Widersprüche überprüfen. Zudem ermöglichen KI-Systeme präzise, randnummerngenaue Zitate aus Rechtsprechung und juristischer Literatur und bieten Kohärenz-Checks an, um die Stimmigkeit von Schriftsätzen und Memos mit der Aktenlage zu prüfen. Mit „Kürze um 50%“ als Instruktion an die KI („Prompt“ genannt) steigt die Wahrscheinlichkeit, dass die Gegenseite alles liest und mit dem Prompt „Mach den folgenden Text schick“ o. Ä. kann man leicht die Verständlichkeit seiner eigenen Texte verbessern. Und: Mit einem klugen Prompt kann man auch den unklugen Entwurf einer garstigen E-Mail an einen Kollegen oder eine Kollegin in eine wunderbare kollegiale Kommunikation verwandeln.

Besonders bei wiederkehrenden Aufgaben zeigt KI ihre Stärken: schnelle Zusammenfassung von Informationen, Textverbesserung und -kürzung sowie die Unterstützung bei der Erstellung verbesserter Einleitungen und Schlussformulierungen oder auch die Analyse von Zahlungen, Rechnungen oder Bilanzen.

Es wird bereits diskutiert, ob Mandantinnen und Mandanten künftig verlangen werden, dass Arbeiten von Berufsanfängerinnen und Berufsanfängern vor der Prüfung durch die Partnerin oder den Partner standardmäßig von einer KI auf inhaltliche und rechtliche Konsistenz geprüft werden. Damit würde sichergestellt, dass die Partnerin oder der Partner nur noch Arbeitsprodukte prüft, deren grundlegende Kohärenz bereits maschinell validiert wurde. Aber Vorsicht: Das könnte unter Umständen die abrechenbaren Stunden reduzieren, z. B. dann, wenn Partnerinnen und Partner Entwürfe nicht mehr mühsam mit der Aktenlage abgleichen müssen, sondern sich darauf verlassen können, dass diese bereits KI-gestützt geprüft wurden.

Schwächen von Künstlicher Intelligenz: Juristische Recherche

Eine große Schwäche hat im Moment noch jede KI bei der juristischen Recherche. Zwar arbeiten verschiedene Anbieter rasant daran, dies zu verbessern. Trotzdem gibt es hier immer noch Fehlzitate, Fantasiefundstellen, Links, die ins Leere gehen usw. Der technische Grund dahinter ist, dass KI-Systeme letztlich Wahrscheinlichkeitsmaschinen sind. Ohne eine Verbindung zur Wirklichkeit – etwa über eine Internetsuche oder den Anschluss an eine juristische Datenbank („Grounding“) – können sie nicht überprüfen, ob ihre Ausgaben korrekt sind. Stattdessen generieren sie das, was sie für wahrscheinlich halten, bzw. das, was der Nutzer hören möchte. Aber Juristinnen und Juristen wollen sich gerade in der Auseinandersetzung mit widerstreitenden Meinungen ihre eigene jur. Meinung bilden.

Rechtliche Rahmenbedingungen

Kein Verstoß gegen die Höchstpersönlichkeit

Ein gelegentlich geäußerter Vorbehalt, der Einsatz von KI verstoße gegen die Pflicht zur höchstpersönlichen Leistungserbringung, greift zu kurz. Die anwaltliche Tätigkeit war schon immer arbeitsteilig organisiert. Noch nie haben Anwältinnen und Anwälte alles alleine bewältigt („no lawyer is an island“). Die Delegation von Aufgaben an wissenschaftliche Mitarbeiterinnen und Mitarbeiter, Referendarinnen und Referendare oder angestellte Anwältinnen und Anwälte ist gängige und anerkannte Praxis. Der Einsatz von KI als Werkzeug zur Unterstützung ist daher nichts anderes als eine moderne Form dieser etablierten Arbeitsteilung. Die Verantwortung für das Endergebnis verbleibt jedoch unberührt bei der Anwältin oder dem Anwalt.

Verschwiegenheitspflicht und die Auswahl von KI-Dienstleistern

Die anwaltliche Verschwiegenheitspflicht nach § 43a Abs. 2 BRAO ist das Herzstück des anwaltlichen Berufsrechts und wird durch § 203 StGB strafrechtlich geschützt. Eine weit verbreitete Sorge ist, dass eine KI von den vertraulichen Inhalten „lernen“ könnte, die ein Anwalt eingibt. Diese Angst ist jedoch meist unbegründet und lenkt von der eigentlichen Gefahr ab.

Mandatsgeheimnis vereinbar mit KI-Anwendungen?

Die meisten Vorlagen, die vielen Anwältinnen und Anwälten als Formatvorlagen so wichtig sind, kann mittlerweile jeder handelsübliche Chatbot mittlerer Art und Güte in vergleichbarer Form generieren. Für ein KI-System ist der Nutzer meist funktional unbekannt; es weiß nicht, ob Sie wirklich ein Anwalt oder eine Anwältin sind, noch kennt es Examensnoten oder weiß, ob Ihre rechtlichen Ausführungen zutreffend sind. Die KI kann also deswegen keine juristischen „Wahrheiten“ von Ihnen lernen, da sie überhaupt nicht weiß, ob ihr Input juristisch ist oder nicht.

Im Zentrum der Diskussion steht daher nicht das geistige Eigentum an Vorlagen, sondern das Mandatsgeheimnis. (Daneben ist natürlich noch der Datenschutz zu beachten, aber diesen zu bewahren ist auch im Rahmen von KI-Anwendungen möglich.) Das Gesetz zur Neuregelung des Geheimnisschutzes bei der Mitwirkung Dritter aus dem Jahr 2017 hat mit der Ergänzung der §§ 203 Abs. 3–4 StGB und § 43e BRAO die Grundlage für den Einsatz externer IT-Dienstleister geschaffen, einschließlich Cloud- und KI-Diensten. Angesichts bereits damals existierender juristischer KI-Anbieter ist davon auszugehen, dass der Gesetzgeber diese Entwicklung im Blick hatte.

Der Kern dieser Regelungen ist die Übertragung der Verantwortung auf die Anwaltschaft. Anwältinnen und Anwälte müssen die „Erforderlichkeit“ der Beauftragung selbst bestimmen und die Dienstleister sorgfältig auswählen und überwachen – was sie aber nur in geringem Umfang können. In der Praxis bedeutet dies: Ein entscheidendes Kriterium ist die Bereitschaft eines LegelAI-Anbieters in Deutschland, sich vertraglich zur Einhaltung der Verschwiegenheit nach § 43e BRAO und § 203 Abs. 4 StGB zu verpflichten. Ist diese Bereitschaft vorhanden, kann regelmäßig von einer berufsrechtskonformen Nutzbarkeit des KI-Anbieters ausgegangen werden (das gilt grds. auch bei Anbietern aus dem Ausland, auch außerhalb der EU, wenn das Anwaltsgeheimnis dort ähnlich wie in Deutschland geschützt ist).

Anonymisierung nicht zwingend erforderlich

Ob der Anbieter im Hintergrund technisch anonymisiert oder nicht, ist dann eine Frage der technischen Umsetzung, die in dessen Verantwortung liegt, solange der Schutz der Daten des Anwaltsgeheimnisses gewährleistet ist. Oft ist die Anonymisierung nicht nötig oder auch nicht wirklich machbar, weil sonst die berufsrechtlich zulässige Informationsverarbeitung nicht möglich ist. Wichtig ist zudem die strafprozessuale Flankierung: Ein seriöser Anbieter wird auch den Schutz des Mandatsgeheimnisses im Hinblick auf das Zeugnisverweigerungsrecht (§§ 53a StPO) und den Beschlagnahmeschutz (§ 97 StPO) vertraglich regeln.

Libra

Geringe Kennzeichnungspflichten nach dem AI Act

Für Anwältinnen und Anwälte, die – was der Regelfall ist – nicht Anbieterinnen oder Anbieter eines KI-Systems sind, sondern lediglich als Betreiberinnen oder Betreiber einen Dienst nutzen, gelten kaum Kennzeichnungspflichten. Nach Art. 50 Abs. 4 UA 2 S. 1 des AI Acts müssen Betreiberinnen oder Betreiber eines KI-Systems, das Text zur Information der Öffentlichkeit über Angelegenheiten von öffentlichem Interesse erzeugt, dies zwar offenlegen. Diese Pflicht entfällt jedoch nach Art. 50 Abs. 4 UA 2 S. 2 des AI Acts., wenn die KI-erzeugten Inhalte einem Verfahren der menschlichen Überprüfung oder redaktionellen Kontrolle unterzogen wurden und eine natürliche oder juristische Person die redaktionelle Verantwortung für die Veröffentlichung der Inhalte trägt. Da Anwälte und Anwältinnen stets die redaktionelle Endverantwortung für ihre Schriftsätze tragen, greift diese Ausnahme. Zudem sind gerichtliche Schriftsätze nicht an die „Öffentlichkeit“ im Sinne des AI Acts gerichtet, sodass eine Kennzeichnungspflicht hier ohnehin nicht besteht.

Zentrale Risiken in der Praxis

„Halluzinationen” und die Gefahr des Prozessbetrugs

Die größte praktische Gefahr stellen sogenannte „Halluzinationen” dar – von KI frei erfundene, aber plausibel wirkende Zitate und Gerichtsurteile. Hier gilt die eiserne Regel: Alle von einer KI generierten Fundstellen sind ausnahmslos auf ihre Existenz und ihren Inhalt hin zu überprüfen. Wer dies unterlässt, handelt pflichtwidrig und haftet für die Folgen. Die (unverbindlichen, aber zum Nachdenken anregenden) Hinweise der BRAK zum KI-Einsatz (Remmertz, Hinweise zum Einsatz von künstlicher Intelligenz (KI), BRAK, 8. Januar 2025, S. 2) unterstreichen diese Kernpflicht und stellen klar: “Der Einsatz von KI-Systemen [sollte] lediglich zur Unterstützung einer anwaltlichen Tätigkeit eingesetzt werden und darf diese nicht ersetzen. In jedem Fall ist eine eigenverantwortliche Überprüfung und Endkontrolle der KI-Ergebnisse durch die Rechtsanwältin/den Rechtsanwalt erforderlich.”

Die unkritische Übernahme KI-generierter Falschzitate wirft die Frage nach einem möglichen Prozessbetrug auf. In einer vergleichbaren Konstellation (wenn auch zu einer Zeit vor der Verbreitung moderner KI) hat das OLG Koblenz im weiteren Sinne klargestellt, dass falsche Rechtsbehauptungen keinen Betrug darstellen können, da Gerichte rechtliche Ausführungen stets eigenverantwortlich prüfen müssen (OLG Koblenz, Beschl. vom 25. 1. 2001 – 2 Ws 30/01, NJW 2001, 1364). Diese Entscheidung stammt bemerkenswerterweise aus einer Zeit vor der massenhaften Anwendung von KI und zeigt, wie modern und technologieoffen die Grundsätze der deutschen Rechtslage sind.

Dass diese Gefahr aber real ist, zeigt ein aktueller Fall des AG Köln vom 02.07.2025 (Az. 312 F 130/25). Das Gericht stellte eine Liste mit einer Litanei von erfundenen Zitaten auf und  stellte unmissverständlich fest: „Die weiteren von dem Antragsgegnervertreter im Schriftsatz (…) genannten Voraussetzungen stammen nicht aus der zitieren Entscheidung und sind offenbar mittels künstlicher Intelligenz generiert und frei erfunden. Auch die genannten Fundstellen sind frei erfunden.“ Da hat jemand die Quellen nicht überprüft.

Ausblick und Fazit: Kommt bald die „selbstfahrende“ Kanzlei?

Die Diskussion geht längst über kleine KI-Assistenzsysteme hinaus. In der anwaltlichen Bubble kommt die Frage auf, ob der deutsche Gesetzgeber nicht präventiv tätig werden und entsprechende Regelungen in BRAO oder die BRAK aufnehmen sollte. Eine explizite berufsrechtliche Regelung zum Umgang mit KI-generierten Inhalten könnte dabei helfen, von vornherein Qualitätsstandards zu setzen und das Bewusstsein für die Risiken von Halluzinationen zu schärfen. Allerdings stellt sich die Frage nach der konkreten Ausgestaltung etwaiger Sanktionen bei Verstößen:

Armour und Eidenmüller haben bereits 2019 die Vision der „selbstfahrenden Kapitalgesellschaft” entworfen (ZHR 2019, 169). Überträgt man diesen Gedanken, liegt auch die selbstfahrende Kanzlei ohne menschliche Anwältinnen und Anwälte im Bereich des Möglichen. Ein trauriger Ausblick. Dann doch lieber die Symbiose aus menschlicher Kanzlei und KI.

Die Integration von KI in die Anwaltschaft ist unausweichlich. Der Schlüssel zum Erfolg liegt in der Beachtung der Grundprinzipien.

Vollständige Überprüfung aller KI-Ergebnisse, sorgfältige KI-Anbieterauswahl unter strikter Beachtung der Verschwiegenheitspflicht und eine transparente Kommunikation mit den Mandantinnen und Mandanten.

Tom Braegelmann

Tom Braegelmann ist Rechtsanwalt bei der Kanzlei Annerton. Er ist ein international erfahrener Insolvenz- und Restrukturierungsexperte, war zuvor für namhafte Wirtschaftskanzleien tätig und ist sowohl in Deutschland als auch in den USA als Anwalt zugelassen. Als Anwalt mit Schwerpunkt auf Bankruptcy Law/Insolvenz- und Urheberrecht war er über drei Jahre in New York tätig. Tom Braegelmann ist bestens vertraut mit den neuesten technologischen juristischen Entwicklungen, insbesondere mit der Digitalisierung des Wirtschafts-, Restrukturierungs- und Insolvenzrechts.

Nach oben scrollen