Kolumne

Ein Brief vom Anwalt – oder doch von der KI?

Künstliche Intelligenz hat zwar keine wirkliche Ahnung von Jus, kann aber erfolgreich so klingen.

Drucken

Schriftgröße

Sehr oft muss künstliche Intelligenz gar nicht perfekte Ergebnisse liefern. Es reicht bereits, dass die Software den Eindruck vermittelt, sie habe eine Ahnung vom Thema. Selbst in der Juristerei kann es in den kommenden Jahren passieren, dass eine KI manche Aufgaben löst oder zumindest den Anschein vermittelt, eine juristische Fachperson habe an dem Fall gearbeitet. Das zeigt ein Versuch, den der deutsche Anwalt Chan-jo Jun unternommen hat. In seinem Bekanntenkreis war ihm ein typischer Nachbarschaftsstreit geschildert worden. Nachbar X hatte seiner Nachbarin Y vorgeworfen, dass ihr Bambus auf sein Grundstück hinüberwachse und dass der Zaun manchmal 10, 20 oder 80 Zentimeter von der tatsächlichen Grundstücksgrenze entfernt stehe. Ein klassischer Zwist unter Nachbar:innen, welcher aber teuer werden kann, wenn plötzlich Jurist:innen eingeschaltet werden.

„Es kommt für die Brauchbarkeit, für die Nützlichkeit, für die Akzeptanz dieser Schreiben nicht darauf an, ob das juristisch alles richtig ist, sondern es kommt darauf an, ob es den gewünschten Effekt erzeugt."

Chan-jo Jun

Anwalt

Anwalt Jun fragte sich: Könnte eine KI in so einem Fall eine juristisch klingende Antwort verfassen – also ein tatsächliches Schreiben eines Anwalts oder einer Anwältin ersetzen? Er schilderte dem Chatbot Bing AI den Fall, sagte ihm, er solle wie ein Anwalt antworten und gab auch noch die Informationen mit, dass der gegnerische Nachbar X rechtswidrig eine Gartenhütte zu Wohnzwecken verwendet und dass die Mandantin nicht bereit ist, den Bambus zu entfernen oder den Zaun zu versetzen. Das Ergebnis können Sie auf YouTube ansehen – unter tinyurl.com/Nachbarschaftsstreit. „Es kommt etwas raus, das sich anhört wie Jura“, sagt Chan-jo Jun selbst. In dem Fake-Rechtsanwaltsschreiben steht beispielsweise: „Der Zaun ist ordnungsgemäß auf der Grenze zwischen den Grundstücken errichtet worden. Er entspricht den Vorschriften der Bayerischen Bauordnung (BayBO) und der örtlichen Gestaltungssatzung. (…) Sie selbst haben auf Ihrem Grundstück eine Gartenhütte errichtet, die Sie entgegen der BayBO zu Wohnzwecken missbrauchen. (…) Die Gartenhütte verstößt gegen die baurechtlichen Anforderungen an Abstandsflächen, Brandschutz, Lärmschutz und Erschließung. Die Gartenhütte stellt somit eine materiell baurechtswidrige Anlage dar, die beseitigt oder legalisiert werden muss.“

Hier wird eine Stärke heutiger „Large Language Models“ deutlich, also jener Technologie, die Chatbots wie Bing AI zugrunde liegt (genau genommen baut Bing AI auf dem bekannten Tool ChatGPT auf). Solche LLMs können oft den Stil von spezifischen Textformen nachahmen: Sie haben anhand großer Textmengen Muster erlernt, wie juristische Schreiben, Popsongs oder Lebensläufe klingen. Jun hat im konkreten Fall nicht geprüft, ob die Antwort der KI juristisch korrekt ist. Er erklärt in seinem Video: „Es kommt für die Brauchbarkeit, für die Nützlichkeit, für die Akzeptanz dieser Schreiben nicht darauf an, ob das juristisch alles richtig ist, sondern es kommt darauf an, ob es den gewünschten Effekt erzeugt. Und es kann häufig sein, dass selbst das, was ich bei einem juristischen Anwalt erzeuge, juristisch gar nicht viel besser ist als das hier. Aber trotzdem den gewünschten Effekt erzielt.“ Ein solcher Brief kann zum Beispiel dazu führen, dass Nachbar X sein Schreiben zurückzieht – und dann wird nie vor Gericht geprüft, ob der Zaun tatsächlich der „Bayerischen Bauordnung (BayBO) und der örtlichen Gestaltungssatzung“ entspricht oder ob die KI hier etwas erfunden hat. Jun geht davon aus, dass in Zukunft manche Personen für ein juristisch klingendes Schreiben nicht mehr zum Anwalt oder zur Anwältin gehen werden. Die KI begeht in dem Schreiben allerdings womöglich einen Fehler: Sie droht mit juristischen Schritten wegen der bewohnten Gartenhütte, außer der Nachbar X zieht sein Schreiben zurück. Hier stellt sich die Frage, ob man das bereits als Nötigung auslegen könnte. Dieser Aspekt zeigt, dass man doch lieber vorsichtig sein sollte, ehe man blind einer KI bei einem wichtigen Dokument vertraut. Aber insgesamt verdeutlicht das Beispiel: Weil wir Menschen eben oft auch schludrig oder nicht hundertprozentig genau arbeiten, weil vieles – selbst in der Juristerei – nicht bis ins letzte Detail durchgedacht und durchdiskutiert wird, kann eine KI manche Aufgaben schon recht menschennah lösen. Es kann also sein, dass manch ein juristisch klingendes Schreiben jetzt oder in Zukunft nicht mehr von Menschen verfasst wird. Für Anwälte und Anwältinnen mag die Vorstellung ein bisschen gruselig klingen, dass sie womöglich bereits mit künstlichen Intelligenzen Schriftverkehr haben. Allerdings lässt sich hier ebenso erahnen, wie praktisch die KI für tatsächliche Profis sein kann – wenn zum Beispiel Jurist:innen ihre Fälle auch mit der künstlichen Intelligenz besprechen und sich potenziell Denkanstöße oder Formulierungshilfen holen, gleichzeitig aber genug Fachwissen haben, um abzuschätzen, ob die KI gerade gute Arbeit macht oder am Holzweg ist. Derartige Technik ist für viele Professionen sowohl potenzielle Unterstützung als auch potenzielle Konkurrenz.

Ingrid   Brodnig

Ingrid Brodnig

ist Kolumnistin des Nachrichtenmagazin profil. Ihr Schwerpunkt ist die Digitalisierung und wie sich diese auf uns alle auswirkt.