6 Minuten Lesezeit 29 September 2023
Luftaufnahme Lombard Street San Fransisco

Algorithmen und Paragrafen: Wie Generative AI das Spielfeld für Rechtsanwälte und Steuerexperten neu gestaltet

Von Daniel Mattig

Senior Associate | Rechtsanwalt | Ernst & Young Law GmbH | Deutschland

Daniel Mattig ist Rechtsanwalt in der Private Equity Praxisgruppe sowie Teil des Legal Process and Technology Teams bei EY Law.

6 Minuten Lesezeit 29 September 2023

Die Aufmerksamkeit für generative KI ist groß, ebenso die Verheißungen. 

Überblick

  • Generative AI verwendet Algorithmen, um Medien zu erzeugen oder zu bearbeiten. 
  • Das Modell rechnet in unserer Sprachwelt, hat aber kein eigenes Verständnis unserer Welt.
  • Jeder ist aufgerufen, sich mit den KI-Modellen praktisch auseinanderzusetzen.

ChatGPT erreichte in wenigen Monaten mehrere 100 Millionen aktive Nutzer und ist damit die bislang am schnellsten wachsende Onlineplattform weltweit. Gleichzeitig befürchten laut des im Juni von EY veröffentlichten Future Consumer Index weltweit 35 Prozent der Beschäftigten, von Maschinen oder Technologien ersetzt zu werden. Dies soll Anlass genug sein, über konkrete Anwendungsfälle auch im Gesellschafts- und Steuerrecht zu sprechen – und über Tipps und Prinzipien für den juristischen Einsatz („Legal Prompt Design“), damit die generative KI am Ende nicht halluziniert und dem Unternehmen unsinnige Ergebnisse liefert.

Grundsätzliches

Generative AI – oder generative künstliche Intelligenz (KI) – verwendet Algorithmen, um Texte, Bilder, Videos, 3D-Welten oder andere Medien zu erzeugen oder zu bearbeiten. Maßgeblich für den textbasierten Einsatz in der Rechtsanwendung sind sogenannte Large Language Models (LLMs). Diese Sprachmodelle sind darauf trainiert, Sprache vorherzusagen und damit Texte zu generieren. Im Grundsatz geht es um Wahrscheinlichkeitsrechnung. Sie basiert auf Mustern, die die KI während des Trainings mit großen (Text-)Datenmengen erlernt hat. Damit ist das LLM in der Lage, den passenden (d. h. wahrscheinlichsten) nächsten Buchstaben, das passende nächste Wort, den passenden nächsten Absatz usw. zu berechnen. Das klappt häufig so gut, dass man die Beiträge kaum von (rein) menschlich verfassten zu unterscheiden vermag. Wichtig ist für Anwender stets, den Gedanken der Wahrscheinlichkeitsrechnung im Hinterkopf zu behalten: Denn das Modell rechnet in unserer Sprachwelt; es hat kein eigenes Verständnis unserer Welt.

Erwartete Umsatzentwicklung mit KI

Juristische Recherche

Unterstützung kann ChatGPT beispielsweise leisten, wenn es darum geht, juristische Problemfelder in unterschiedlicher Weise darzustellen, Voraussetzungen für bestimmte Rechtsfolgen in Checklisten zusammenzufassen oder sich einen ersten Überblick über neue Rechtsgebiete zu verschaffen. Mitunter können auch konkrete Lösungsvorschläge für detailliert dargestellte Sachverhalte geliefert werden. Gleichwohl ist im Rahmen der juristischen Recherche höchste Vorsicht geboten. Denn die Modelle tendieren dazu, auch Falsches oder Erfundenes zu halluzinieren. Da sie selbst auf Nachfrage bei ihren Behauptungen bleiben oder gar Quellen und Belege erfinden, kann dies besonders gefährlich werden. Prominent wurde der Fall eines Anwalts aus New York, der eine Fluggastrechteklage durch ChatGPT vorbereiten ließ. Hierbei vertraute er auf die angeführten, aber allesamt erfundenen Belege aus der Rechtsprechung. Zudem hatte ChatGPT auf Nachfrage sämtliche Funde als „echt“ bestätigt, was das Gericht aber nicht überzeugte.

Eine gewisse Abhilfe ist möglich, wenn im Rahmen der Kontextualisierung – etwa über den Zugang zu einer juristischen Datenbank oder unternehmenseigenen Datenbeständen – dem Modell die erforderlichen Quellen zur Verfügung gestellt werden. In diesem Fall verlagert sich der Schwerpunkt der Aufgabe weg von der originär inhaltlichen Arbeit hin zur Textverarbeitung. Erste Anbieter kündigten bereits an, den Inhalt ihrer juristischen Datenbanken via Plugins zugänglich zu machen, und Beratungsunternehmen arbeiten an entsprechenden eigenen Lösungen – so natürlich auch EY. 

Vertragsanalyse/Due Diligence

KI wird schon lange zur Vertragsanalyse und im Rahmen der Due Diligence eingesetzt. Insbesondere in Großprojekten sind die Vorteile groß. Grundlage sind hierbei aber traditionelle KI-Konzepte (besonders das sogenannte maschinelle Lernen), die Juristen regelmäßig in einer Vielzahl von Projekten trainieren. Erste Untersuchungen zeigen, dass diese traditionellen Konzepte aufgrund des spezifischen Trainings einem unspezialisierten generativen KI-Modell überlegen sind. Vor allem liefern die traditionellen Konzepte verlässlichere und reproduzierbare Ergebnisse und sind in der Praxis gut erprobt. Gleichwohl ist zu erwarten, dass beide KI-Arten zukünftig kombiniert werden, um die relativ präzise Erkennung der traditionellen Tools durch das bessere Sprachverständnis der neuen zu ergänzen.

Im Bereich der Vertrags- und Dokumentenanalyse kann generative KI etwa helfen, Checklisten, Verhandlungsleitlinien oder Playbooks vorzubereiten. Aus Steuerbescheiden können steuerliche Attribute extrahiert und mit den Erklärungsdaten abgeglichen oder Fristen und Zahlungsaufforderungen ausgelesen werden. Ebenso können die Modelle dazu dienen, Fehler in der Texterkennung gescannter Dokumente auszubessern oder gescannte, unformatierte Texte wieder zusammenzufügen. Letzteres funktioniert etwa sehr gut bei Gesellschafterlisten aus dem Handelsregister.

Erstentwurf juristischer Dokumente

Mit dem richtigen Befehl und einem schrittweisen Vorgehen können die Modelle auch Erstentwürfe von Verträgen erstellen. Wichtig ist hierbei erneut, dass eine genaue inhaltliche Prüfung erfolgt. Besonders einfachere Dokumente – etwa Vollmachten, Gesellschafterbeschlüsse, Ergebnisabführungsverträge oder die bloße Ergänzung von (Muster-)Gesellschaftsverträgen – können gut angepasst werden; dies gilt besonders für eher formale Anpassungen wie die grammatikalische Änderung von einem auf zwei Vertragspartner. Gleichwohl ist der Einsatz im Einzelfall gegenüber der traditionellen Dokumentenautomatisierung abzuwägen: Denn anders als der Textbaustein im automatisierten Dokument erstellt die generative KI den einzufügenden Text jedes Mal neu, sodass es zu Abweichungen kommen wird. Geht es also um wiederkehrende und einheitliche Inhalte, ist die traditionelle Automatisierung vorzuziehen. Allerdings sind generative Modelle wesentlich flexibler und können – ähnlich wie bei der Vertragsanalyse – helfen, die Dokumentenautomatisierung vorzubereiten. Anwendungsfälle sind etwa die Erstellung der Dokumentenlogik oder der einzelnen Textbausteine.

Geht es hingegen um komplexere Dokumente, stoßen die Modelle schnell an ihre Grenzen und lassen sich kaum inhaltlich anspruchsvoll bearbeiten. Bereits der bloße Umfang von Verträgen wie Anteilskauf- und Abtretungsverträgen, Partnerschafts- oder Joint-Venture-Verträgen fordert die Modelle enorm heraus. 

Sam Altman, CEO von OpenAI, bei einer Anhoerung vor dem US-Senat

Dokumentation, Kommunikation, juristische Nebentätigkeiten

Die Stärken der generativen Modelle liegen in der Textverarbeitung, sodass sie sich insbesondere für kommunikative Aufgaben eignen. Zu den Anwendungsfällen zählen beispielsweise die folgenden: 

  • Verfassen von E-Mails, Präsentationen oder (interner) Leitfäden auf der Basis von Stichpunkten oder bestimmten Quellen
  • Zusammenfassen und (Erst-)Bearbeiten von Anfragen, die die Geschäftsbereiche an die Rechts- bzw. Steuerabteilung herantragen
  • Entwerfen von Textbausteinen für Anträge auf verbindliche Auskunft oder steuerliche Memos
  • Erstellen/Aktualisieren von Step-Plänen (inkl. Datum), etwa für eine Verschmelzung
  • Erstellen von Strukturdiagrammen/Übersichten aus Gesellschafterlisten oder sonstigen (gescannten) Dokumenten, insbesondere Tabellen
  • Hilfe/Erläuterungen bei Formatierungen in Microsoft Word oder Formeln in Excel

Grenzen des Datenschutzes

Bei allem Interesse, die neue Technologie einzusetzen, sollten auch einige grundlegende Grenzen beachtet werden. Besonders zu nennen sind der Schutz von (eigenen und fremden) Geschäftsgeheimnissen, die Verankerung ethischer Standards („Responsible AI by Design“) und der Schutz personenbezogener Daten. Welche Brisanz dem Thema Datenschutz zukommt, zeigen nicht zuletzt die (vorübergehende) Sperrung des ChatGPT-Zugangs in Italien und die detaillierten Anfragen der deutschen Datenschutzbehörden. Damit ist auch jedes Unternehmen und jeder Endnutzer berufen zu hinterfragen, mit welchen Daten ein KI-Modell trainiert wurde und welche Daten man im Rahmen der Nutzung preisgibt. Obgleich die Detailfragen vielschichtig sind, mag man sich an dem Prinzip orientieren, persönliche Daten nur zweckgebunden und sparsam einzusetzen. Erhellend können auch das Selbstverständnis der KI-Unternehmen und ihre Bereitschaft sein, Haftung in diesen Fragen zu übernehmen: Ist man etwa bereit, auf das weitere Training anhand der Benutzerdaten zu verzichten? Bietet man schon eine separate Lösung an, die KI-Modell und Unternehmensdaten ähnlich einer Firewall trennt? Vielfach gibt es bereits Unternehmensleitlinien, um die Mitarbeitenden im Umgang mit der KI anzuleiten und zu begrenzen.

Grundsätze für den juristischen Einsatz

Um die Modelle gewinnbringend einzusetzen, gilt es, einige übergeordnete Prinzipien im Blick zu behalten. Zudem sollte man gewisse Aufbauregeln für die Anweisungen („Prompts“) an die KI beachten, die sich in einem „Musterprompt“ vereinen lassen. Man spricht auch vom Legal Prompt Design oder Legal Prompt Engineering.

Der EU Artificial Intelligence Act (AIA) – demnächst final

Das Europäische Parlament hat mit seiner Verhandlungsposition vom 14. Juni 2023 den Trilog für ein erstes harmonisiertes Regelwerk für KI-Systeme innerhalb der Europäischen Union eingeleitet. EU-Parlament, Kommission und Rat werden nun final entscheiden, wie künstliche Intelligenz in Europa reguliert wird.

Was unter den Begriff eines KI-Systems fällt, ist dabei noch strittig. Jedenfalls dürften ein gewisser Grad an Autonomie (selbst-lernend) sowie ein gewisser Output in Form von Empfehlungen, Entscheidungen oder Vorhersagen entscheidend sein.

Verfolgt wird dabei ein risikobasierter Ansatz, bei dem die KI in mehrere Stufen unterteilt ist:

Zu den verbotenen KI-Praktiken gehört die kognitive Verhaltensmanipulation von Menschen oder bestimmten gefährdeten Gruppen. Das Social Scoring beschreibt die Klassifizierung von Personen auf der Grundlage von Verhalten, sozioökonomischem Status oder persönlichen Merkmalen. 

Hochrisiko-KI: Gemeint sind Systeme, die sich negativ auf die Sicherheit oder die Grundrechte auswirken könnten. Dies wird angenommen bei harmonisierten Bereichen wie die Fahrzeugzulassung oder für Bias sensible Bereiche wie Justiz oder Recruiting. Dann gelten besondere Anforderungen wie Risikomanagement, Data Governance, Menschliche Überprüfung, Cybersecurity, Dokumentation und Qualitätsmanagement.

Für Basismodelle gelten die Anforderungen nur abgeschwächt. Als Basismodell gelten KI-Systeme die mit einer großen Datenmenge trainiert wurden und vielfältig eingesetzt werden können (wie die generative KI ChatGPT).

Sonstige KI-Systeme müssen Transparenzanforderungen entsprechen. Es hat also eine Offenlegung zu erfolgen, dass die Inhalte von einer KI generiert wurden.

Ansprechpartner: Dr. Peter Katko 

Ausgangspunkt sind vier Leitprinzipien

  1. Ruft man sich in Erinnerung, dass die Modelle Sprache ohne Inhaltsverständnis anhand von Wahrscheinlichkeiten generieren, wird schnell deutlich, dass sie den menschlichen Rechtsanwender nicht ersetzen. Es fehlen Qualifikationen wie subjektiv-emotionale Überzeugungskraft und persönliche Ethikvorstellungen, die – solange Verhandlungen zwischen Menschen geführt und gerichtliche Entscheidungen von Menschen gefällt werden – im juristischen Alltag noch nicht wegzudenken sind.  
    Generative KI wird zum juristischen Copiloten – ist aber kein Autopilot. 
  2. Demzufolge ist die Textverarbeitung mitunter sehr gut, was aber keine Rückschlüsse auf die verarbeiteten Inhalte zulässt, ganz im Gegenteil: Die Modelle tendieren dazu, auch Falsches oder Erfundenes überzeugend darzustellen – sie halluzinieren. Gleichzeitig sind Aussagen regelmäßig nicht durch Quellenangaben überprüfbar; dies ist einer KI immanent, die ihren Antwortvorschlag im Sinne einer Black Box aus einer Vielzahl von Daten stets aufs Neue erstellt. Obgleich es möglich ist, dem Phänomen zu begegnen, ist eine inhaltliche Kontrolle der KI-Ergebnisse unumgänglich, wenn man sich nicht auf die reine Textbearbeitung beschränken will.  
    Je anspruchsvoller der Inhalt, desto strenger muss die Ergebnisprüfung sein. 
  3. Je nach Zuschnitt der KI fehlt dem Modell jegliche Vorstellung vom Rahmen einer Aufgabenstellung. Wirklich gute Ergebnisse lassen sich daher nur erreichen, wenn die Aufgabe präzise formuliert und mit Vorlagen, Beispielen und weiteren Beschreibungen kontextualisiert wird. Besonders Vorlagen – etwa Vertragsklauseln, eine Rechercheabhandlung oder ein sonstiger juristischer Text – eignen sich sehr gut, um dem Problem der Halluzinationen zu begegnen. Denn indem dem Modell das inhaltliche Wissen an die Hand gegeben wird, rückt der Schwerpunkt der Aufgabe in die (risikoärmere) Sphäre der Textverarbeitung.  
    Kontext ist König. 
  4. Da das Kontextualisieren erst einmal ungewohnt sein mag, ist es regelmäßig einfacher, das gewünschte Ergebnis im Dialog mit dem Modell zu erarbeiten. Gerade diese Dialogfähigkeit beeindruckt im Vergleich zu herkömmlicher Recherche und ermöglicht eine fast menschlich wirkende Kommunikation über den Prompt, um Zwischenergebnisse immer weiter zu verfeinern. Umfangreiche Aufgaben sollten daher in Teilschritte zerlegt werden, die man zwar ankündigt, aber nacheinander erarbeitet. Zudem kann man das Modell stets fragen, ob Informationen oder Anweisungen fehlen. Schließlich sollte die KI genutzt werden, um unterschiedliche Perspektiven einzunehmen – sei es um Gegenargumente oder gleich einen Gegenentwurf einer Vertragsklausel gezeigt zu bekommen.  
    Interaktion lohnt sich.

Im Ergebnis dürfte der Umgang mit dem generativen KI-Copiloten dem gestandenen Rechtsanwender gar nicht so fremd vorkommen: Es gilt, den Sachverhalt zu formulieren, präzise Anweisungen zu geben, den Rahmen einer Aufgabe zu spannen, gezielt nachzufragen und bei inhaltlichen Fragen den eigenen Sachverstand oder vertrauenswürdige Quellen heranzuziehen.

… die sich in einem zweigeteilten Musterprompt vereinen lassen

Der nachfolgende Musterprompt stellt einen Beispielaufbau für die Nutzung von ChatGPT dar und kann gerade bei kleineren Anfragen stark verkürzt werden; für umfangreiche Aufgaben wiederum wird er nicht ausreichen. In solchen Fällen empfiehlt es sich, den Systemteil als eigenständigen Prompt zu verfassen und mehrere Anwendungsteile zu nutzen, um die Aufgabe Schritt für Schritt abzuarbeiten. Schließlich ist zu beachten, dass die Fähigkeit der Modelle, den Kontext zu speichern, begrenzt ist. Daher sollte für jede größere Aufgabe ein neuer Chat gestartet werden. Insgesamt empfiehlt es sich, eine aktive Sprache zu verwenden und Ziele konkret im positiven Sinne zu benennen, statt nur Ungewolltes auszuschließen. Unerheblich ist hingegen, in welcher Sprache ein Prompt eingegeben wird – auch Sprachwechsel sind ohne weitere Ankündigungen möglich.

Systemteil

Unter den Systemteil lassen sich wiederkehrende Inhalte fassen, die etwa in einen jeden neuen Chat (manuell) einkopiert werden oder bei einem Modell, das auf eine bestimmte Aufgabe spezialisiert ist, bereits im Hintergrund hinterlegt wären. Zum Systemteil könnten etwa folgende Anweisungen gehören:

  • „Antworte wie ein Rechtsanwalt aus dem Bereich des Gesellschaftsrechts“ oder „Antworte wie ein Steuerberater“
  • „Schreibe und argumentiere präzise und juristisch, aber auch so, dass rechtlich ungebildete Leserinnen und Leser alles verstehen“
  • „Schreibe in American English und nutze folgende Definitionen/Abkürzungen […] und diese Stilvorlage […]“ 
  • „Schreibe eher konservativ/faktenbasiert“ oder „Schreibe eher kreativ“

Anwendungsteil

Der Anwendungsteil besteht aus vier Komponenten, die einfach als Stichpunkte bzw. im Notizstil eingegeben werden können. 

  1. Ziel und einleitende Beschreibung 
    An dieser Stelle sollte die Aufgabenstellung grob umrissen und das Ziel formuliert werden. Je nach Umfang des Systemteils sind weitere Elemente hinzuzufügen. 
  2. Kontextualisierung 
    Besonders wichtig sind detaillierte Beschreibungen, Beispiele oder Hinweise. Hierbei empfiehlt es sich, eine Vorlage oder ein Beispiel textlich abzugrenzen. Für ChatGPT empfiehlt OpenAI etwa eine Abgrenzung durch ### (dreifache Raute) oder """ (dreifache Anführungszeichen). Ist man in der Lage, Plugins zu nutzen, können auch Verweise auf konkrete Webseiten (was einer allgemeinen Websuche vorzuziehen wäre) oder PDFs (die entweder als Link online abrufbar oder hochzuladen wären) verwendet werden. Künftig werden auch Plugins von juristischen Datenbanken relevant, sodass der Nutzer etwa eine bestimmte Mustersammlung spezifizieren kann. Wer die Vorlage oder das Beispiel manuell eingibt, sollte je nach Umfang erwägen, den Prompt hier aufzuteilen und weiteren Kontext in der nachfolgenden Anweisung zu geben. 
  3. Inhaltliche Aufgabenstellung 
    In diesem Punkt ist das Ziel weiter auszugestalten: Welche Änderungen sollen an der Vorlage vorgenommen werden? Inwiefern weicht das Beispiel vom Gewollten ab? Welche Daten sind zu ergänzen? 
  4. Formale Aufgabenstellung 
    Schließlich ist anzugeben, in welchem Format die Aufgabe erledigt werden soll. Soll eine Klausel direkt in einen Vertrag eingefügt werden? Benötigt man eine chronologisch geordnete Tabelle oder soll ein Memo verfasst werden? Wie umfangreich soll die Antwort sein – beispielsweise maximal 500 Wörter oder fünf Spiegelstriche? Ebenso können Elemente, die auch den Systemteil prägen könnten, ergänzt werden – das betrifft etwa die Sprache, den Stil oder sonstige formale Vorgaben. Es ist aber darauf zu achten, dass innerhalb der Anweisung keine Widersprüche entstehen.

Jedes Ergebnis des Prompts ist nun kritisch zu prüfen und sollte nur als Erstaufschlag verstanden werden. Je nach Bedarf kann der Nutzer nun in Interaktion mit dem Modell den Entwurf bearbeiten, Gegenpositionen ansehen oder aber den nächsten Schritt einer mehrteiligen Aufgabe angehen.

Co-Autor: Joerg Stefan Brodersen 

GenAI-Menükarte

Mit der GenAI-Menükarte, die wir speziell für die Bedürfnisse und Anforderungen der Steuerfunktion entworfen haben, haben Sie die Möglichkeit, ein zugeschnittenes Workshop-Angebot zu erhalten. 

Zum Workshop

AI Insights

Entdecken Sie unsere globalen Erkenntnisse, mit denen Sie Vertrauen in KI aufbauen und in Ihrem Unternehmen menschliche Potenziale erweitern können

Erfahren Sie mehr

Fazit

Zuzugeben ist, dass sich die Textverarbeitung bereits enorm erleichtern lässt, was viele Berufe massiv verändern wird. Im juristischen Bereich setzen aber die qualitativ-inhaltlichen Anforderungen und der Datenschutz noch gewichtige Grenzen. Selbst wenn diese überwunden werden, bleiben Berater – gerade auch im Bereich des Gesellschafts- und Steuerrechts – aufgrund ihrer Erfahrung, ihrer Marktkenntnis und ihres Urteilsvermögens unersetzbar. Gleichwohl ist jeder aufgerufen, sich mit den Modellen praktisch auseinanderzusetzen. Denn letztlich gilt: Zwar werden generative KI-Modelle nicht Rechtsanwender ersetzen, aber Rechtsanwender, die generative KI-Systeme nutzen, werden jene ersetzen, die es nicht tun.

Über diesen Artikel

Von Daniel Mattig

Senior Associate | Rechtsanwalt | Ernst & Young Law GmbH | Deutschland

Daniel Mattig ist Rechtsanwalt in der Private Equity Praxisgruppe sowie Teil des Legal Process and Technology Teams bei EY Law.