US-amerikanische Anwälte setzen zunehmend auf Künstliche Intelligenz bei der Erstellung von Schriftsätzen – mit teils gravierenden Folgen. Gerichte verhängen immer häufiger Sanktionen wegen fehlerhafter KI-generierter Inhalte, während sich die Rechtsprofession schwer mit angemessenen Standards tut. Die Entwicklung zeigt exemplarisch, wie disruptive Technologien etablierte Branchen vor neue Herausforderungen stellen.
Sanktionen erreichen sechsstellige Beträge
Die dokumentierten Fälle von Gerichtssanktionen nehmen dramatisch zu. Ein Pariser Forscher, der weltweit Disziplinarmaßnahmen gegen Anwälte erfasst, verzeichnete an einem einzigen Tag zehn Entscheidungen aus verschiedenen US-Gerichten. Besonders drastisch fiel eine Strafe vor einem Bundesgericht in Oregon aus: 109.700 US-Dollar musste eine Kanzlei zahlen. Andere Fälle bewegten sich im vierstelligen Bereich, etwa 3.000 US-Dollar pro Anwalt wegen erfundener Quellenangaben.
Das Grundproblem liegt in der Funktionsweise aktueller KI-Systeme: Sie produzieren sprachlich überzeugende Texte, halluzinieren aber regelmäßig bei Fakten und Zitaten. Oberste Staatsgerichte in Nebraska und Georgia führten bereits öffentliche Anhörungen zu solchen Fehlern durch und leiteten Disziplinarverfahren ein. Diese Halluzinationen entstehen, weil Large Language Models statistische Wahrscheinlichkeiten für Wortfolgen berechnen, ohne tatsächliches Verständnis für Wahrheit oder Falschheit zu besitzen.
Besonders problematisch sind erfundene Gerichtsurteile und Präzedenzfälle. In einem berühmten Fall vor dem Southern District of New York zitierte ein Anwalt sechs komplett fiktive Urteile, die ChatGPT generiert hatte. Der Richter bezeichnete das Vorgehen als “beispiellose Umstände” und verhängte nicht nur Geldstrafen, sondern ordnete auch an, dass die betroffenen Anwälte an Fortbildungen zur verantwortlichen KI-Nutzung teilnehmen müssen.
Kennzeichnungspflichten erweisen sich als unzureichend
Verschiedene Gerichte fordern mittlerweile die Offenlegung von KI-Nutzung bei Schriftsätzen. Diese Regelungen greifen jedoch zu kurz, da algorithmische Tools längst Standard in juristischen Arbeitsabläufen sind. Von der Textverarbeitung über die Recherche bis zum ersten Entwurf – KI ist allgegenwärtig geworden.
Eine pauschale Kennzeichnungspflicht würde praktisch jedes Dokument betreffen und damit ihren Informationswert verlieren. Gleichzeitig verstärken wirtschaftliche Anreize das Problem: Wenn Software Entwürfe schneller erstellt, geraten traditionelle Abrechnungsmodelle unter Druck. Kanzleien entwickeln neue Vergütungsstrukturen, was dazu führt, dass KI-generierte Texte mit weniger individueller Prüfung übernommen werden.
Die American Bar Association hat erste Richtlinien veröffentlicht, die eine “angemessene Überwachung” von KI-Tools fordern. Konkrete Standards fehlen jedoch weiterhin. Einige Bundesstaaten wie Kalifornien und New York arbeiten an spezifischen Regelungen, die zwischen verschiedenen KI-Anwendungen differenzieren sollen. Kritiker bemängeln, dass die Regulierung der technologischen Entwicklung hinterherhinkt.
Rechtsprechung zu KI-Anbietern nimmt Fahrt auf
Die Nippon Life Insurance Company verklagte im März OpenAI vor einem Bundesgericht in Illinois. Der Vorwurf: unerlaubte Rechtsberatung durch ChatGPT. Eine Nutzerin soll den Chatbot als juristischen Berater verwendet und basierend auf dessen Empfehlungen mehrere unbegründete Klagen eingereicht haben.
Die Klage wirft grundsätzliche Fragen zur Verantwortung von KI-Anbietern auf. Können Unternehmen wie OpenAI haftbar gemacht werden, wenn ihre Systeme als Rechtsberater missbraucht werden? OpenAI weist die Vorwürfe zurück und verweist auf Nutzungsbedingungen, die explizit vor der Verwendung für Rechtsberatung warnen. Der Fall könnte Präzedenzcharakter für die gesamte Branche entwickeln.
Parallel dazu entstehen neue Geschäftsmodelle: Spezialisierte Legal-Tech-Unternehmen wie Harvey AI oder LawGeex bieten KI-Tools an, die speziell für juristische Anwendungen trainiert wurden. Diese Anbieter versprechen höhere Genauigkeit und übernehmen teilweise Haftungsgarantien – allerdings zu deutlich höheren Kosten als allgemeine Chatbots.
Qualitätskontrolle wird zum Wettbewerbsfaktor
Die aktuellen Entwicklungen deuten darauf hin, dass der sachgerechte Umgang mit generativer KI zum entscheidenden Differenzierungsmerkmal im Rechtsmarkt wird. Während einige Kanzleien auf schnelle Effizienzgewinne setzen, investieren andere in robuste Qualitätssicherungsprozesse.
Führende Großkanzleien wie Clifford Chance oder Allen & Overy haben eigene KI-Governance-Teams etabliert. Diese entwickeln interne Standards für die Nutzung verschiedener KI-Tools und schulen Anwälte im verantwortlichen Umgang. Kleinere Kanzleien hingegen sind oft auf externe Beratung angewiesen oder nutzen KI-Tools ohne ausreichende Kontrollen.
Besonders in komplexen Rechtsbereichen – etwa bei der strafrechtlichen Bewertung von Softwareentwicklung oder im internationalen Handelsrecht – sind präzise Argumentationen unerlässlich. Wenn Gerichte sich auf mangelhaft geprüfte, KI-gestützte Schriftsätze verlassen, kann dies die Rechtsprechung nachhaltig beeinflussen. Richter berichten bereits von einer spürbaren Qualitätsverschlechterung bei eingereichten Dokumenten.
Ausblick: Zwischen Innovation und Verantwortung
Die Rechtsprofession steht vor einem Wendepunkt: Künstliche Intelligenz wird die Branche transformieren, doch ohne angemessene ethische Standards und Qualitätskontrollen drohen erhebliche Risiken. Erfolgreiche Kanzleien werden jene sein, die Effizienzgewinne mit professioneller Sorgfalt verbinden können.
Experten prognostizieren eine Zweiteilung des Marktes: Während Routinearbeiten zunehmend automatisiert werden, steigt der Wert menschlicher Expertise bei komplexen Fällen. Die Fähigkeit, KI-generierte Inhalte kritisch zu bewerten und zu verbessern, wird zur Kernkompetenz moderner Juristen. Universitäten beginnen bereits, entsprechende Curricula zu entwickeln.