Das Recht in Händen von Maschinen? Manchen mag diese Vorstellung beunruhigen, doch der Einsatz von Künstlicher Intelligenz hat auch bei der Justiz Vorteile. Foto: imago/Alexander Limbach

Künstliche Intelligenz (KI) weckt in der Justiz besondere Befürchtungen: Entscheidet am Ende eine Software statt des richterlichen Sachverstandes über Recht und Unrecht? Es braucht transparente Regeln, um dies zu verhindern.

Dieser Text-Einstieg wurde mit Hilfe Künstlicher Intelligenz erstellt: „KI hat das Potenzial, das Rechtsempfinden der Deutschen zu verbessern, indem sie die Effizienz und Genauigkeit juristischer Analysen und Entscheidungen erhöht. Gleichzeitig wirft sie jedoch Bedenken hinsichtlich Datenschutz, Diskriminierung und ethischer Verantwortung auf, die sorgfältig berücksichtigt werden müssen.“

 

Kaum fünf Sekunden benötigt der frei verfügbare Chatbot ChatGPT von Open AI, um durchaus treffend auf die Frage zu antworten, was KI mit dem Rechtsempfinden der Deutschen macht. Kleine Experimente mit KI können belustigen, für abwegig gehalten werden oder erstaunen. Dabei wird es nicht bleiben. Im Bereich der Justiz ist der spätere flächendeckende Einsatz besonders heikel: Schon der Gedanke, dass eine schwer zu zähmende Technologie über Recht und Unrecht befindet, vermag gesellschaftliches Vertrauen zu untergraben.

Die Einführung der E-Akte ist noch nicht bewältigt

In der Welt der Gerichte, die sich seit jeher mit Bergen von Papier und Aktenordnern herumplagt, muss derzeit noch die Einführung der elektronischen Akte verdaut werden. Da steht schon die nächste Revolution vor der Tür. In Fachkreisen liegen frohe Erwartung und Skepsis nahe beieinander. „Jura lebt vom menschlichen Denken, doch verlagert KI das Denken in Systeme, deren Algorithmen nicht bekannt sind“, gibt Ulrich Hensinger, Vorstandsmitglied der Neuen Richtervereinigung (NRV) Baden-Württemberg und prinzipiell ein Fürsprecher des Neuen, zu bedenken. „Wenn am Ende KI-generierte Urteilsentwürfe rauskommen, ist das zumindest intransparent.“

Wer sich in der Justiz des Landes nach dem Stand der Dinge erkundigt, kommt an Björn Beck nicht vorbei. Der Ministerialrat ist sozusagen das KI-Mastermind des Ministeriums und auf Bund-Länder-Ebene in der Informationstechnik bestens vernetzt. Der Protagonist des Fortschritts argumentiert zunächst einmal sehr grundsätzlich: Es falle den Menschen extrem schwer, disruptive Entwicklungen quasi vorausschauend zu bewerten, meint er. Dies sei schon bei der Entwicklung des Autos so gewesen – die meisten Menschen hätten es damals für eine verrückte Idee gehalten. Insofern dürfe die Justiz heute die technologische Entwicklung nicht unterschätzen. „Wenn die Gesellschaft digital und KI-gestützt wird, dann werden wir es mit ihr werden, ob wir wollen oder nicht“, sagt der 42-Jährige, der vor seinem Jura-Studium und der richterlichen Karriere ein eigenes kleines Start-up für Softwareentwicklung geführt hat. „Wir sollten uns nicht von vornherein Denkverbote auferlegen.“

Auf seiner Überzeugungstour hat Beck der Siegeszug von ChatGPT sehr geholfen. Seit dessen Einführung im November des Vorjahres hat er kaum einen Vortrag ohne eine Spielerei damit bestritten und „Whow“-Effekte erzielt. Der Chatbot habe das allgemeine Verständnis von KI gefördert. Mittlerweile findet er die GPT-Zitate (und womöglich obigen Einstieg) selbst ein wenig „affig“; „da gähnen die Leute schon wieder“.

Im Rechtswesen geht es vor allem um die Anwendung von Sprache. „Die Justiz kriegt unfassbar viele Texte“, sagt Beck. Hinzu kämen die mündlichen Vorträge in Verhandlungen, die dann in Texte transformiert werden. „Wenn wir eine Industrie wären, dann eine textverarbeitende Industrie.“ Da steckt ein enormes Potenzial zur Vereinfachung. „Wir begreifen KI als Möglichkeit für eine Geschäftsprozessautomation.“ Da gebe es ein „wahnsinnig spannendes weites Feld, wo ganz viel von Hand passiert, was nicht von Hand passieren muss, weil es routinehaft, massenhaft und sehr arbeitsintensiv ist“.

KI kann die Datensätze durchforsten und viel schneller als ein Mensch kategorisieren. Beispiele lassen sich in den Gerichten zuhauf finden: Obwohl es vielerorts die E-Akte gibt, müssen Richter noch in zahlreichen eingehenden Schriftsätzen zitierte Urteile oder Fachliteraturstellen manuell heraussuchen. Die Maschine kann die Vorbereitung einer Verhandlung massiv erleichtern.

Ziel wäre es, den Legal-Tech-Anwaltsbüros etwas entgegenzusetzen

Auch Legal-Tech-Anwaltsbüros machen sich die Digitalisierung zunutze und blockieren die Zivilgerichte mit massenhaften Klagen; speziell im Verbraucherschutz ist so die rechtliche Vertretung einer Vielzahl von Klägern mit hoher Kostenersparnis möglich. Dem muss die Justiz etwas entgegensetzen.

Prominent sind die Dieselklagen: Allein das Oberlandesgericht Stuttgart hat noch rund 14 700 Berufungsverfahren zu bewältigen. Die Kanzleien verwenden in Schriftsätzen von oft über 100 Seiten jede Menge Textbausteine. So lassen sich entscheidende Eckdaten schon bei geringfügigen Abweichungen nicht mehr an derselben Textstelle auffinden. KI hilft: Strukturierungssoftware erkennt die Abweichungen, kategorisiert, ordnet gleich gelagerte Sachverhalte zu und liefert übersichtliche Auflistungen. Das Tool „Olga“ ermöglicht es Richterinnen und Richtern, gleich in die Prüfung einsteigen, ob etwa vergleichbare Fälle schon erledigt sind.

Diverse Pilotprojekte in der Justiz Baden-Württemberg

Die Justiz in Baden-Württemberg rühmt sich, bundesweit Vorreiter zu sein. Zu den laufenden Pilotprojekten gehört die Automatisierung der Abrechnungen von Prozesskostenhilfe am Arbeitsgericht Stuttgart. Bisher wurde arbeitsintensiv von Hand geprüft, ob die Unterlagen zu Einkommen oder Sozialleistungen oder die Kontoauszüge zu den gemachten Angaben passen. Die Software kann dies erleichtern und konkrete Auszahlungsmodalitäten vorschlagen. So bekommt der Antragsteller eher seine Bewilligung und kann rascher in den Prozess einsteigen.

ChatGPT hat die Fantasie vollends entfacht. Schon lassen sich technikaffine Richter im Selbstversuch Urteilsentwürfe erstellen und können der KI-Argumentation einiges abgewinnen. Dass die KI – so die große Angst vieler– am Ende ganze Urteile verfasst, lässt zumindest die deutsche Verfassung nicht zu: „Die eigentliche justizielle Entscheidung wird niemals automatisiert werden, nicht mit unserem Grundgesetz“, betont Beck. Dort gebe es Artikel, die die rechtsprechende Gewalt allein den Richtern anvertrauen. Diese seien allein dem Gesetz unterworfen und dürften sich nicht der KI unterwerfen, indem ein System unbesehen Teile des Urteils entwirft. „Wir im Ministerium sind – Stand 2023 – der Überzeugung: Am Ende entscheidet immer der Mensch.“ Die Frage, wie weit es mit KI gehen könne, „hört bei uns immer da auf, wo der Bereich der menschlichen Entscheidung anfängt“.

Die Verantwortung soll stets beim Menschen liegen

Da herrscht auch im Berufsstand der Robenträger weitgehend Konsens, dass der KI nicht die Abwägung im Einzelfall oder die Folgebetrachtung überlassen werden kann. Die Verantwortung für ein Urteil muss stets die Richterin oder der Richter tragen.

Dennoch birgt die Überlegenheit der Technik ihre Tücken. Ob der generelle Anspruch im Alltag von jedem Richter erfüllt wird, ist offen: Wer schon heute zu oberflächlichen Urteilen neigt, um die Fälle schnell vom Tisch zu bekommen und beim Chef einen guten Eindruck zu hinterlassen, der könnte auch der digitalen Unterstützung weniger entgegensetzen. Bei umfangreichen Akten besteht die Gefahr, dass sich der Richter mit der Zusammenfassung in Form eines Urteilsentwurfs zufrieden gibt, die vom System vorgeschlagen wird. Und niemand kann in massiv überlasteten Justizbereichen garantieren, dass nicht der eine oder andere Vorgesetzte irgendwann zum Softwareeinsatz rät, weil es damit so schön schnell geht.

Vergewaltigung oder einvernehmlicher Sex – wer kann es besser bewerten?

Ist zudem die Annahme der richterlichen Autonomie nicht lebensfremd, wenn das Urteil auf Grundlage einer von der KI vorstrukturierten Arbeit gefällt wird? Der große Vorteil der Künstlichen Intelligenz liegt eher in der Schnelligkeit der Datenverarbeitung, weniger in der abwägenden Analyse. Ob beispielsweise eine Vergewaltigung tatsächlich verübt wurde oder in Wahrheit einvernehmlicher Sex stattgefunden hat: Inwiefern soll eine Maschine besser über Schuld und Unschuld urteilen können? Braucht es da nicht vielmehr die richterliche Expertise? Zudem tun sich da rasch ethische Grenzen auf.

Andererseits: Irren ist menschlich. „So eine Software ist zumindest scheinbar viel objektiver als der Mensch“, sagt Ulrich Hensinger, der selbst 25 Jahre Vorsitzender Richter am Landesarbeitsgericht war. Es gebe Untersuchungen aus den USA, dass das Strafmaß bei Strafrichtern vor und nach der Mittagspause unterschiedlich ausfällt – äußere Einflüsse wie auch die Länge eines Prozesses oder persönliche Probleme des Richters beeinflussen somit die subjektive Urteilsfähigkeit. Bei einer automatisierten Entscheidung sei die Voraussetzungen für Neutralität eher gegeben.

Allerdings verweist Hensinger zugleich auf die Kehrseite: „Wir sehen gar nicht so richtig hinein, wie die Software zu den Ergebnissen kommt“. Das sei „eine Blackbox“. Wenn sie vornehmlich von weißen Männern mit Vorurteilen programmiert wird, könnten andere Gruppen bei der Strafmaßbemessung prinzipiell diskriminiert werden. Im Entwurf zum Artificial Intelligence (AI) Act der Europäischen Union, der nächstes Jahr in Kraft treten könnte, ist ein soziales Bewertungssystem („Social Scoring“) unzulässig.

In Deutschland hat die Unabhängigkeit der Justiz einen hohen Stellenwert. Damit es so bleibt, müssen wohl klare Rahmenbedingungen aufgestellt werden, denn es wäre riskant, auf Selbstregulierung zu setzen. Insofern ist es gut, dass auf Bund-Länder-Ebene eine KI-Strategie für die Justiz erarbeitet wird – wenngleich mit einer „gewissen Flughöhe“, auf der eher über grundlegende strategische Fragen befunden werden soll, wie Björn Beck sagt.

Forderung nach einer europäischen Software

Aber reicht das? Letztlich müssen auch konkrete Kriterienkataloge und Kontrollmechanismen für den transparenten KI-Einsatz entwickelt werden. Als besonders gefährdet gilt der Datenschutz, denn die marktbeherrschenden und in der Hinsicht fragwürdigen Systeme sind in den Händen der großen Player Microsoft, Google, Open AI & Co. Der europäische Einfluss ist verschwindend gering. So pocht die Richter- und Staatsanwaltschaft auf eine europäische oder gar deutsche Software mit der Gewähr, dass die hier üblichen Standards eingehalten werden. Es könnte das Vertrauen nicht nur der Robenträger, sondern auch der Bevölkerung in die digitale Revolution erheblich stärken.