Bei der Nutzung von KI-Software sind einige rechtliche Aspekte zu berücksichtigen. Im Folgenden werden die wichtigsten Fragen zum gesetzeskonformen Einsatz von ChatGPT und Co. für Kanzleien erörtert. Ziel ist es, ein grundlegendes Verständnis für mögliche Fallstricke und Risiken zu entwickeln, um den KI-Chatbot im Alltag verantwortungsvoll einsetzen zu können.
1. Drei Probleme von KI-Chatbots
Trotz der zahlreichen Vorteile und Anwendungsmöglichkeiten von ChatGPT und Co. gibt es ernstzunehmende Schwächen, insbesondere wenn es um KI-generierte Texte zu rechtlichen Fragestellungen geht.
Problem 1: Falschaussagen durch inkorrekte Trainingsdaten
Innerhalb der Trainingsdaten werden beispielsweise Aussagen eines Rechtsanwalts oder einer Steuerberaterin gleichwertig zu der einer in einem Internetforum getätigten Rechtsmeinung behandelt. Wenn zum Beispiel ein Nutzer in einem Forum eine steuerliche Frage stellt und andere Forumsteilnehmer:innen aufgrund mangelnder Fachkenntnis zu einer falschen Schlussfolgerung gelangen, kann diese Fehlinformation genauso in die Trainingsdaten von ChatGPT und Co. einfließen und folglich zu einer falschen Antwort der KI führen.
Problem 2: Halluzinationen
Ein weiteres Risiko bei der Nutzung von ChatGPT und Co. sind sogenannte „Halluzinationen“. Dabei handelt es sich um KI-generierte Antworten, die plausibel erscheinen, aber nicht auf Fakten beruhen. Einfach ausgedrückt sind „Halluzinationen“ vollständig erfundene Antworten, die keinen Bezug zur Realität haben. Sie können insbesondere dann auftreten, wenn der KI-Chatbot Schwierigkeiten hat, Informationen in seinen Trainingsdaten zu finden.
Bei dem obigen Screenshot handelt es sich um eine Anfrage an einen KI-Chatbot, einen Textabschnitt zu einem Reihengeschäft zu erstellen. Anstatt die Aufgabe korrekt auszuführen, wurde der Inhalt des Paragraphen § 3 Abs. 6a S. 1 UStG komplett frei erfunden.
Problem 3: Fehler in Berechnungen
ChatGPT zeigt eine hohe Zuverlässigkeit bei der Lösung einfacher mathematischer Aufgaben. Beispielsweise antwortet ChatGPT korrekt mit „vier“, wenn man nach dem Ergebnis von zwei plus zwei fragt.
Versucht man jedoch, kompliziertere Rechnungen zu lösen oder größere Zahlenmassen zu analysieren, kann es zu Fehlern kommen. Eine der Hauptursachen für diese Schwächen liegt in der Art und Weise, wie die KI trainiert wurde. ChatGPT führt keine echten Berechnungen aus. Stattdessen erzeugt es Texte, die auf Wahrscheinlichkeiten basieren; d. h. ChatGPT spielt die Zahl(en) aus, die in diesem Kontext in den Trainingsdaten am häufigsten folgen.
Vor diesem Hintergrund wird ChatGPT bei einfachen Aufgaben – die häufig in den Trainingsdaten vorhanden sind – eine zuverlässige Antwort geben. Bei komplexeren Aufgaben, die die KI noch nicht in den Trainingsdaten kennengelernt hat, sinkt die Qualität der Ausgabe.
Trotz seiner aktuellen Schwächen ist zu erwarten, dass sich die mathematischen Fähigkeiten von ChatGPT in Zukunft verbessern werden.
Beispiel zur Falschberechnung: Die Zuverlässigkeit von ChatGPT bei mathematischen Aufgaben lässt sich anhand eines praktischen Beispiels illustrieren. Stellen Sie sich vor, jemand bittet ChatGPT, die Summe folgender Zahlen zu berechnen: 84, 91, 59, 57, 95, 32, 47, 83, 57 und 63. ChatGPT nennt daraufhin ein Ergebnis von 618, was auf den ersten Blick korrekt erscheinen könnte.
Wird dieselbe Berechnung in MS Excel durchgeführt, stellt sich heraus, dass die tatsächliche Summe 668 beträgt.
2. Generierte Texte überprüfen und validieren
Bei der Nutzung von KI-Chatbots ist es unerlässlich, die erzeugten Texte kritisch zu betrachten. Sie basieren auf einer Vielzahl von Internetquellen, die fehlerhaft oder veraltet sein können. Nutzer:innen sollten daher die von ChatGPT bereitgestellten Informationen immer hinterfragen. Eine sorgfältige Überprüfung und Validierung der Informationen ist insbesondere in Fachgebieten mit hohem Spezialwissen, wie bei rechtlichen Fragestellungen, essentiell. Für zuverlässige Auskünfte bleibt es wie bisher ratsam, zusätzlich auf etablierte Quellen wie Rechtsdatenbanken zurückzugreifen.
Datenschutz einhalten
Stellen Sie sich vor, ein:e Mitarbeiter:in Ihrer Kanzlei nutzt ChatGPT, um Kundenanfragen zu beantworten und gibt versehentlich sensible Daten in den Chat ein. Welche datenschutzrechtlichen Implikationen könnten sich daraus ergeben?
Bei der Implementierung von ChatGPT und Co. in berufliche Kontexte ist die strikte Einhaltung datenschutzrechtlicher Richtlinien nicht nur ratsam, sondern zwingend erforderlich.
Bei der Nutzung von ChatGPT. ist immer zu berücksichtigen, dass sich die Server, auf denen die Software läuft, in den USA befinden. Bei einer Anfrage an ChatGPT handelt es sich somit um eine Datenübermittlung in ein Land, das nicht das von der EU geforderte Datenschutzniveau aufweist. Vor diesem Hintergrund dürfen insbesondere personenbezogene Daten nicht bei ChatGPT eingegeben werden. Personenbezogene Daten sind Informationen, die sich auf eine identifizierbare natürliche Person beziehen. Dazu gehört eine breite Palette von Informationen, wie Name, Adresse, E-Mail-Adresse oder Telefonnummer. Personenbezogene Daten sollten unbedingt anonymisiert werden, bevor die Anfrage an ChatGPT abgeschickt wird.
Die Datenschutzgrundverordnung (DSGVO) gilt selbstverständlich auch für KI-Anwendungen wie ChatGPT. Sie sollten daher sicherstellen, dass alle Mitarbeitenden der Kanzlei über die relevanten Regelungen informiert sind und diese einhalten.
Urheberrecht beachten
Das Urheberrecht im Zusammenhang mit ChatGPT und Co. ist ein viel diskutiertes Thema. In diesem Abschnitt beleuchten wir die wichtigsten Fragen und Unsicherheiten, die in diesem Zusammenhang auftreten können.
Die Nutzungsbedingungen von ChatGPT und Copilot erlauben grundsätzlich die kommerzielle Nutzung der von diesen Systemen generierten Texte. Dies bedeutet, dass die Nutzer:innen die erstellten Inhalte gemäß OpenAI bzw. Microsoft in kommerziellen Kontexten nutzen dürfen. Zu beachten sind jedoch mögliche urheberrechtliche Risiken, die sich aus den verwendeten Trainingsdaten ergeben können.
KI-generierte Inhalte basieren auf umfangreichen Datensätzen aus dem Internet, die als Trainingsdaten verwendet werden. Diese Texte können aus den unterschiedlichsten Quellen stammen, z. B. aus Nachrichtenartikeln, Blogs, Wikipedia-Einträgen und vielen anderen Internetquellen. Einige dieser Trainingsdaten sind urheberrechtlich geschützt. In der Praxis dürfte durch die Nutzung von ChatGPT und Co. das Risiko einer Berührung mit urheberrechtlich geschütztem Material jedoch eher gering sein. ChatGPT und Co. übernehmen grundsätzlich keine Textpassagen unmittelbar aus den Trainingsdaten, sondern lediglich Muster und Zusammenhänge für die Generierung neuer Texte. Es besteht dennoch ein theoretisches Risiko einer Urheberrechtsverletzung.
Vorgehen im Alltag
Nutzende, die Texte mit KI generiert haben, genießen, vereinfacht gesagt, im ersten Schritt kein eigenes Urheberrecht. Wird die Ausgabe von ChatGPT und Co. jedoch von der nutzenden Person modifiziert und weiterverarbeitet, könnte der neue Text urheberrechtlichen Schutz erlangen. Die Bedingung dafür ist, dass der Text eine individuelle kreative Leistung darstellt. In diesem Fall wäre der/die Nutzende von ChatGPT und Co. der/die Urheber:in des neuen Textes und würde die entsprechenden Rechte daran besitzen.
3. Nutzungsrichtlinie erstellen
Mit einer klaren und detaillierten Nutzungsrichtlinie für alle Mitarbeitenden zum sicheren und verantwortungsvollen Einsatz von ChatGPT stellen Sie sicher, dass die KI kanzleiübergreifend rechtskonform und korrekt eingesetzt wird.
Bestandteile einer Nutzungsrichtlinie
Die Nutzungsrichtlinie sollte unter anderem die folgenden Punkte enthalten:
- Prüfverfahren für Antworten, die von ChatGPT und generiert wurden
- Bestimmungen zum Schutz personenbezogener Daten
- Regelungen zur Veröffentlichung von Texten, die mit Unterstützung von KI erstellt wurden
Eine effektive Nutzungsrichtlinie könnte außerdem praktische Anweisungen enthalten, wie die verschiedenen Vorgaben im Kanzleialltag eingehalten werden können.
Zugang zur Muster-Nutzungsrichtlinie
Unter dem folgenden Link finden Sie eine Muster-Nutzungsrichtlinie, die als Grundlage für die Entwicklung einer eigenen Richtlinie für Ihre Kanzlei genutzt werden kann:
Individualisierung der Muster-Nutzungsrichtlinie
Die Muster-Nutzungsrichtlinie ist eine solide Basis. Sie muss jedoch an die individuellen Gegebenheiten der Kanzlei angepasst werden. Folgende Bereiche sollten individualisiert werden:
- Festlegung von Verantwortlichkeiten: Beginnen Sie mit der Zuweisung von klaren Zuständigkeiten. Wer ist Hauptansprechpartner:in für die KI-Implementierung?
- Auswahl der KI-Chatbots: Die Muster-Nutzungsrichtlinie erlaubt ausschließlich die Nutzung von ChatGPT und Ggf. wollen Sie die Nutzung von weiteren KI-Chatbots ermöglichen.
- Datenschutz und Urheberrecht: Die Muster-Nutzungsrichtlinie gibt bereits einen umfassenden Überblick über datenschutz- und urheberrechtliche Eine Anpassung an die individuellen Prozesse innerhalb der Kanzlei ist empfehlenswert.

Jan Dobinsky
Jan Dobinsky ist Experte zum Einsatz von KI in der Steuerberatung. Durch sein Studium in der Rechts- und Wirtschaftswissenschaften sowie einschlägiger Berufserfahrung bei PwC, WTS und Taxdoo verfügt er über ein breites Spektrum an Fachwissen in der Automatisierung von steuerrechtlichen Prozessen. Darüber hinaus ist er als Dozent für die Steuerfachschule Endriss und für das IFU-Institut tätig.