Automatisierte Rechtsvergleichung

Drei neuere Forschungsarbeiten haben meine Aufmerksamkeit auf die Möglichkeiten der Rechtsvergleichung mit Hilfe Künstlicher Intelligenz (KI) gelenkt.

  1. Corinna Coupette/Dirk Hartung, Rechtsstrukturvergleichung, RabelsZ 2022, 935–975.
  2. Kilian Lüders/Bent Stohlmann, Classifying Proportionality – Identification of a Legal Argument, Artificial Intelligence and Law 2025, 1051–1078
  3. Corinna Coupette/Dirk Hartung/Janis Beckedorf/Maximilian Böther/Daniel Martin Katz, Law Smells, Artificial Intelligence Law 31, 2023, 335–368.

Zu 1: Corinna Coupette/Dirk Hartung, Rechtsstrukturvergleichung,

Der Name von Corinna Coupette erscheint in dieser kurzen Liste doppelt, und eigentlich müsste er noch öfter genannt werden. Mit ihrer erstaunlichen Dissertation über »Juristische Netzwerkforschung« (J. C. B. Mohr, Tübingen, 2019) hat sie eine theoretische Grundlage für die Quantifizierung von Rechtsphänomenen gelegt. Der Titel des Buches bringt nicht zum Ausdruck, dass es um eine mathematische Modellierung als Voraussetzung der automatisierten Erfassung von Rechtsstrukturen geht, kurz um »quantitative Rechtswissenschaft«, nicht aber um den sozialen und soziologischen Aspekt von Netzwerken geht. Was man unter »quantitativer Rechtswissenschaft« zu verstehen hat und was moderne Methoden insoweit leisten können, haben Corinna Coupette und Andreas M. Fleckner in 2018 in der Juristenzeitung dargestellt. [1] Wie man den Netzwerkansatz nutzen kann, haben Coupette u. a. 2021 ausprobiert.[2] Diese empirische Basis nutzen sie, um zu zeigen, wie eine quantifizierende Rechtsvergleichung anhand von (äußeren) Ähnlichkeitsmerkmalen möglich ist. Die Autoren sprechen von »quantitativer Rechtsvergleichung (quantitative comparative law)«.

Quantitative Methoden stehen in den Humanities prinzipiell unter Verdacht, die Dinge unzulässig zu vereinfachen. Das gilt gerade auch für die Rechtsvergleichung. Coupette und Hartung inszenieren ihre Forschung daher als einen Schritt der Komplexitätsreduktion. Das ist als vorbeugende Verteidigung gegen kulturalistische Angriffe verständlich. Ich würde mir allerdings eine aggressivere Position wünschen. Dass Rechtssysteme »komplexe adaptive Systeme« bilden, die ein Beobachter in ihrer Gesamtheit nicht nachvollziehen und damit verstehen kann, haben wir längst alle begriffen. Da wir nun aber in solchen Systemen leben und uns in ihnen zurechtfinden müssen, ist es von vornherein ausgeschlossen, stets die ganze Dynamik des Systems in Betracht zu ziehen. Man muss sich zunächst an groben Strukturen orientieren und kann nur bei Bedarf in die Tiefe gehen. Solcher Bedarf ist in erster Linie gegeben, wenn es um das Schicksal bestimmter Menschen geht. Doch selbst dann muss man sich zuvor der »Rahmenbedingungen« versichern.[3]

Der Strukturbegriff ist notorisch unscharf. Er lenkt den Blick auf etwas relativ Festes und Dauerhaftes. Als Elemente der Struktur kann man Rechtsformbegriffe wählen, so dass die Struktur auf einer formalen, äußeren Ebene bleibt. Als Alternative ist eine Struktur aus Werten und Prinzipien denkbar. Empirisch lassen sich Formen leichter beobachten als Inhalte. Das ist der Hintergrund der Arbeit von Coupette und Hartung. Sie stellen »Objekte« zusammen, die aufgrund ihrer Wechselbeziehungen gegenüber ihrer Umwelt als zusammengehörig erscheinen und so ein System bilden, das sich auch als Netzwerk empirisch und mathematisch erfassen lässt.

Über die Auswahl der »Objekte« wird nicht weiter reflektiert.  Die Objekte werden schlicht als »konzeptionell anerkannt« und »funktional fundiert« vorgestellt (S. 952). Die Basis bilden Legislative, Exekutive und Judikative als staatliche Akteure und daneben private, Individuen, Unternehmen) und Literatur(-produzenten). In Betracht kommen Organisationen, Personen und Dokumente, kurz alles, was Gegenstand etwa von Justizstatistiken ist. In Betracht kommen aber auch formgeprägte Differenzierungen wie die zwischen Legislative, Exekutive und Judikative (Gewaltenteilung oder zwischen Gesetz, Verordnung, Vertrag, Verwaltungsakt und Gerichtsurteil (Rechtsquellen). Diese Akteure handeln teils durch Individuen (Abgeordnete, Beamte, Richter, Private, Juristen – das spielt aber in der konkreten Untersuchung keine Rolle), teils in Organisationen (Parlament, Behörde, Gericht, Unternehmen, Forschungsinstitute). Sie produzieren Dokumente, nämlich Gesetze, Verordnungen und Verwaltungsakte, Entscheidungen, Verträge oder juristisches Schrifttum. Schließlich werden die Objekte auf drei Ebenen verortet, auf der Makroebene ganzer Rechtssysteme, auf der mittleren Ebene bestimmter Rechtsgebiete und auf der Mikroebene etwa einzelner Dokumente (Gesetze, Verordnungen usw.). Das ist also die von Coupette und Hartung verwendete »Taxonomie«, bzw. das sind ihre Variablen.

Die Zusammenhänge zwischen den Objekten lassen sich in Tabellen darstellen, wie es die so genannte Businesss Process Management Notation (BPMN)[4] vorsieht. Längst gibt es Programme, die BPMN-Tabellen automatisch auswerten können. Coupette und Hartung bevorzugen jedoch die Formalisierung mit Hilfe mathematischer Netzwerke oder Graphen, wie sie Coupette in ihrer Dissertation vorgedacht hatte. Im Netzwerk werden die »Objekte« zu »Knoten« und die Beziehungen zwischen »Objekten« zu Kanten.

Konkret wird über einen Rechtsstrukturvergleich zwischen Deutschland und den USA auf der Makroebene berichtet. Dabei geht es um die Frage: »Wird das nationale Gesetzes- und Verordnungsrecht in Deutschland und in den USA tatsächlich insgesamt immer umfangreicher, immer komplizierter und immer komplexer?« (S. 964). Die Antwort ist im Hinblick auf auf den Umfang relativ einfach. Da wird nur die Veränderung der Anzahl der Worte über einen Zeitraum von 20 Jahren gezählt. »Strukturelemente« ergeben sich aus der Gliederung er Rechtstexte, z. B. in Kapitel, Paragrafen oder Absätze.  Referenzen sind Verweisungen und Bezugnahmen aller Art. Als wesentliches Ergebnis heben die Autoren hervor, dass in den USA die Verordnungen schneller gewachsen sind als die Gesetze, während s sich in Deutschland umgekehrt verhält. Vergleichsweise zeigt sich auch, dass in Deutschland innerhalb der Rechtstexte stärker mit Verweisungen gearbeitet wird, währen in den USA nicht selten Textwiederholungen anzutreffen sind. Das ist nur eine Andeutung. Im Detail zeigt sich ein genaueres und damit interessanteres Bild. Mir dient diese Arbeit als Beleg, dass ein Ähnlichkeitsvergleich, und zwar auch ein solcher mir Hilfe automatisierter Verfahren, möglich und aufschlussreich ist.

Zu 2: Kilian Lüders/Bent Stohlmann, Classifying Proportionality

Ziel der Arbeit von Kilian Lüders und Bent Stohlmann »Classifying Proportionality«[5] ist das Argument Mining. Es sollen domänenspezifische Argumentationstypen, im konkreten Fall das Verhältnismäßigkeitsargument, aus unstrukturierten Texten extrahiert werden. Es geht hier also um die von Friedemann Vogel so genannten »Mehrworteinheiten«, also um Textstellen, die wohl das gleiche Argument transportieren, dazu aber unterschiedliche Formulierungen verwenden, so dass sie mit einfachen Suchroutinen nicht aufgefunden werden können. Aber man kann auch nicht einfach irgendwelche KI mit einschlägigen Texten füttern, so dass sie selbsttätig Muster findet, die sich als die gesuchten Argumente erweisen. Vielmehr kann und muss KI für diese Aufgabe erst trainiert werden. Das ist die Lehre aus der Arbeit von Lüders und Stohlmann.

Die Autoren haben vergleichsweise verschiedene KI-Modelle eingesetzt, die mit strukturierten Texten trainiert werden. Ein wesentlicher Beitrag der Studie ist die Erstellung und Veröffentlichung eines neuen Datensatzes. Dieser Datensatz besteht aus 300 Entscheidungen des BVerfG, in denen die auf Satzebene Verhältnismäßigkeitsargument annotiert wurden (insgesamt 54.929 Sätze). Mit diesem Datensatz wurden verschiedenen Modelle (u.a. neuronale Netze und Transformer wie BERT) trainiert, um vorherzusagen, ob ein Satz eine Verhältnismäßigkeitsprüfung beinhaltet. Trotz einer hohen Genauigkeit hatten die Modelle Schwierigkeiten, alle Sätze mit Verhältnismäßigkeitsargumenten zu identifizieren. Das beste Ergebnis erzielte das hybride BERT-BiLSTM-CRF-Modell. Das Ergebnis zeigt, dass die Identifizierung des Verhältnismäßigkeitsarguments komplex ist. Insbesondere in langen Passagen mit Verhältnismäßigkeitsprüfungen oder in Fällen, in denen das Argument nur angedeutet, aber nicht angewendet wird, treten Fehler auf.

Was die Quantifizierung des Verhältnismäßigkeitsarguments für die Rechtsdogmatik bringt, haben die Autoren in der Zeitschrift »Der Staat« ausgebreitet.[6]

Zu 3: Law Smells

Diese Arbeit finde ich besonders interessant, weil ein »struktureller« Vergleich zwischen Computer-Code und Rechtsnormen den Ausgangspunkt bildet. Vergleichen werden hier verschiedene Funktionen oder vielmehr Dysfunktionen bestimmter Gestaltungen von Computercode und Rechtsnormen. Es handelt sich wohl nicht mehr um einen bloßen Ähnlichkeitsvergleich, sondern um einen Funktionsvergleich. Das ist noch kein Beweis, aber immerhin in Hineis dafür, dass auch der Funktionsvergleich automatisiert werden könnte. Ein Beweis ist es deshalb nicht, weil mit dem mapping zunächst nur Äußerlichkeiten im Rechtscode gefunden werden. Auch die Suche nach Code Smells und Law Smells läuft nicht vollautomatisch. Dem Programm müssen die einschlägigen Muster vorgegeben werden.

Als Code Smell bezeichnen Softwareentwickler Programmteile, die zwar nicht unmittelbar zu Ausführungsfehlern führen, aber doch die Übersichtlichkeit und Pflege des Programms erschweren und damit die Fehlerwahrscheinlichkeit erhöhen. Das ist etwa der Fall, wenn ein Code oft wiederholt wird, »Klassen« zu viel leisten sollen und deshalb zu groß werden, Bausteine des Codes (»Methoden«) zu lang geraten, der Code mit Kommentaren versehen wird, weil Dritte ihn sonst schwer verstehen würden. Es gibt eine lange Liste gut definierter Code Smells, die bei einer Programmpflege (refactoring) möglichst beseitigt werden.

Coupette u. a. haben analog zu den Code Smells das Konzept von Law Smells entwickelt.[7] Law Smells sind oberflächliche Anzeichen, die auf tiefere Probleme hinweisen. Diese Probleme können es erschweren, die Norm zu verstehen und zu handhaben und sie bereiten Schwierigkeiten bei Rechtsänderungen. Die Autoren haben zehn solcher Probleme identifiziert, z. B.:

  • Duplizierte Phrasen: Wiederholte Formulierungen, die zu Inkonsistenzen führen können.
  • Lange Elemente: Sehr lange Abschnitte, die die Lesbarkeit und Strukturierung erschweren.
  • Mehrdeutige Syntax: Verwendung von Operatoren oder Satzzeichen, die Raum für Interpretationen lassen.

Insoweit handelt es sich um statische Merkmale, das heißt solche, die aus dem Text allein erkennbar sind. Dynamisch sind dagegen das term overloading – derselbe Begriff wird an verschiedenen Stellen für unterschiedlich verwendet – oder eine Konstellation, die bei einer Reform shotgun surgery, das heißt Reparaturen an mehreren Stellen, erfordert. Die Autoren verwenden den United States Code (USC) als Beispieltext. Sie haben den USC nicht manuell annotiert, sondern setzen auf automatisierte Methoden zur Erkennung der vordefinierten von Law Smells. Hilfreich ist dabei die hierarchische Struktur des USC, bestehend aus Titeln, Kapiteln, Abschnitten und Unterabschnitten. So gelingt es,  verschiedene Law Smells im USC zu identifizieren insbesondere komplexe Referenzstrukturen und lange Elemente wurden häufig gefunden. Die Arbeit von Coupette u. a. zu den Law Smells finde ich unter anderem deshalb interessant, weil die Autoren hier – ohne das besonders zu betonen – mit einer strukturellen Analogie arbeiten. Sie vergleichen Computercode mit Rechtsnormen und finden dabei einen ganzen Strauß gleichartiger Funktionen oder vielmehr Dysfunktionen. Damit öffnen sie ein Fenster für auch für die funktionale Rechtsvergleichung.


[1] Corinna Coupette/Andreas M. Fleckner, Quantitative Rechtswissenschaft, JZ 2018, 379–389.

[2] Corinna Coupette/Janis Beckedorf/Dirk Hartung/Michael Bommarito/Daniel Martin Katz, Measuring Law Over Time: A Network Analytical Framework with an Application to Statutes and Regulations in the United States and Germany, 2021, https://doi.org/10.48550/arXiv.2101.11284.

[3] Spaßeshalber habe ich Copilot gebeten, diesen Absatz zu prüfen. Copilot hat mir folgenden »Vorschlag für eine wissenschaftlich‑publikationsfähige Fußnote« gemacht:

»Die von Coupette und Hartung betonte Komplexitätsreduktion wird als methodische Selbstverortung gegenüber kulturalistischen Einwänden präsentiert. Diese defensive Rahmung erscheint jedoch unnötig. Die Einsicht, dass Rechtssysteme komplexe adaptive Systeme darstellen, deren Gesamtzustand sich keinem Beobachter vollständig erschließt, gehört längst zum theoretischen Grundbestand der Rechts- und Sozialwissenschaften. Gerade weil wir in solchen Systemen handeln, sind wir epistemisch auf heuristische Ordnungsstrukturen angewiesen, die Komplexität zunächst grob bündeln und nur bei Bedarf vertiefen. Ein solcher Bedarf entsteht vor allem in Situationen individueller Entscheidungsrelevanz; doch selbst dann setzt jede vertiefte Analyse die Klärung übergeordneter struktureller Rahmenbedingungen voraus. Komplexitätsreduktion ist daher keine methodische Schwäche, sondern eine notwendige Voraussetzung systematischen Verstehens – und könnte entsprechend selbstbewusster vertreten werden.«

Weiter hat Copilot angeboten, die Fußnote »stärker theoretisch zu verankern (z. B. mit Luhmann, Simon, Gigerenzer, systems thinking)« und dazu folgendes Ergebnis geliefert.

»Die von Coupette und Hartung gewählte Rahmung ihrer Methode als Beitrag zur Komplexitätsreduktion wirkt unnötig defensiv. Seit Luhmanns grundlegender Einsicht, dass soziale Systeme ihre eigene Komplexität nur durch Reduktion operativ handhabbar machen können, gehört es zum theoretischen Gemeingut, dass vollständige Erfassung systemischer Dynamiken epistemisch ausgeschlossen ist (Luhmann, Soziale Systeme, 1987, insb. Kap. 3; ders., Ausdifferenzierung des Rechts, 1981). In komplexen adaptiven Systemen (im Sinne der Komplexitätsforschung) ist die Perspektivengebundenheit des Beobachters strukturell unvermeidlich; jede Analyse setzt daher eine selektive Fokussierung voraus (Miller/Page, Complex Adaptive Systems, 2007; De Domenico et al., Complexity Explained, 2019). Bereits Herbert Simon hat gezeigt, dass Akteure in komplexen Umwelten nur mittels »bounded rationality« und satisfizierender Heuristiken Orientierung gewinnen können (Herbert A. Simon, Models of Man, 1957; administrative Behavior, 4. Aufl. 1997). Gigerenzer hat diese Einsicht weiter zugespitzt: Gute Entscheidungen beruhen nicht auf vollständiger Informationsverarbeitung, sondern auf ökologisch rationalen Heuristiken, die Komplexität gezielt ausblenden (Gerd Gigerenzer, Adaptive Thinking, 2000; Rationality for Mortals, 2008). Auch im Systems Thinking gilt Komplexitätsreduktion nicht als epistemischer Mangel, sondern als notwendige Bedingung für Modellbildung und Intervention (Meadows, Thinking in Systems, 2008). Vor diesem Hintergrund ist Komplexitätsreduktion nicht bloß ein methodisches Zugeständnis, sondern eine epistemische Notwendigkeit jeder rechtsvergleichenden Analyse. Eine Methode, die dies offen anerkennt, könnte dies mit größerer Selbstverständlichkeit und weniger apologetischem Unterton tun.«

[4] Jakob Freund/Bernd Rücker, Praxishandbuch BPMN, 7. Aufl. 2025.

[5] Kilian Lüders/Bent Stohlmann, Classifying Proportionality – Identification of a Legal Argument, Artificial Intelligence and  Law 2025, 1051–1078.

[6] Bent Stohlmann/Kilian Lüders/Luisa Wendel/Leonard Hoeft/Sophie Reule/Alexander Tischbirek, Konsolidierung statt Siegeszug. Eine quantitative Untersuchung der Verwendung des Grundsatzes der Verhältnismäßigkeit in der Rechtsprechung des Bundesverfassungsgerichts, Der Staat 2024, 217–252.

[7] Corinna Coupette/Dirk Hartung/Janis Beckedorf/Maximilian Böther/Daniel Martin Katz, Law Smells, Artificial Intelligence Law 31, 2023, 335–368.

Ähnliche Themen

Frege und die Frage nach der Intelligenz der künstlichen Intelligenz

Vorab ein Nachtrag zum Posting vom 21. Mai 2023. Im Internet findet man einen Text von Fabian Hundertmark, anscheinend eine studentische Arbeit des angehenden Philosophen, mit der Überschrift »Frege und sein Reich der Gedanken«. Er bietet eine »präzise Übersicht über Freges Argument:

»Eigenschaften der Dinge der Außenwelt:

Alle Dinge der Außenwelt können mit den Sinnen wahrgenommen werden.
Kein Ding der Außenwelt hat einen Wahrheitswert.

Eigenschaften der Dinge der Innenwelt:

Alle Dinge der Innenwelt benötigen genau eine Person, von der sie gehabt werden.

Eigenschaften der Gedanken:

Kein Gedanke kann mit den Sinnen wahrgenommen werden.
Alle Gedanken haben Wahrheitswerte.
Kein Gedanke benötigt genau eine Person, von der er gehabt wird.

Hieraus ergibt sich:

Kein Gedanke gehört zur Außenwelt.
Kein Gedanke gehört zur Innenwelt.

Zusammen mit der impliziten Prämisse

Gehört etwas weder zur Innen-, noch zur Außenwelt, gehört es zu einer dritten Welt.

ergibt sich die Konklusion:

Gedanken gehören zu einer dritten Welt.«

Hundertmark meint, Freges Argumentation für ein drittes Reich der Gedanken sei gescheitert, weil Gedanken doch auch zur Innenwelt gehörten. Ich teile diese Kritik nicht. Die dritte Prämisse ist nicht haltbar. Gedanken gehören zu beiden Welten. Das Problematisch erscheinen mir zwei andere Fragen, die Frage nämlich, welche Inhalte als Gedanken in die dritte Welt gehören, und die weitere Frage wie die Innenwelt der Menschen an der dritten Welt der Gedanken teilhat bzw. wie die Gedankenwelt auf die reale Welt einwirken kann. Auf diese Fragen habe ich keine definitive Antwort und ziehe mich daher auf einen Als-Ob-Trialismus zurück, der es gestattet, etwas großzügiger mit den Inhalten und Grenzen der dritten Welt umzugehen.

Die Inhalte, die Frege der dritten Welt zuwies, sind nämlich sehr beschränkt. Er bestand darauf, dass die Gedanken schon dort schon vorhanden sind, bevor sie je als Vorstellung im Kopf eines Menschen auftauchen. »Das Sein eines Gedankens [ist] sein Wahrsein.«[1] Deshalb werden Gedanken nicht erfunden, sondern sie werden gefasst oder erfasst. Es gibt also eine Art Parallelgeschehen in Menschenköpfen. Einer Überquerung der Grenze bedarf es nicht.

Hundertmark geht nicht auf Popper ein und Popper nicht auf Frege, wiewohl doch das dritte Reich der Gedanken und Poppers Dritte-Welt-Ontologie erstaunlich konvergieren. Poppers dritte Welt wird von der Schulphilosophie ignoriert. Als referierende Darstellung habe ich nur den Abschnitt » Objective Knowledge and The Three Worlds Ontology« in dem Artikel »Karl Popper« von Stephen Thornton in der Stanford Encyclopedia of Philosophy gefunden. Bei Popper liegt der Akzent auf dem Ziel, die Objektivität wissenschaftlicher Erkenntnis zu retten und er betont den evolutionären Charakter der menschlichen Gedankenwelt. Die Welt 3 soll keine präexistenten, sondern nur von Menschen gedachte Gegenstände beinhalten. Sie bilden ein »evolutionäres Produkt« der Welt 2.  Die grenze zwischen den Welten ist also durchlässig, und zwar auf für kontingente Inhalte. Soweit der Nachtrag. Er war zur Selbstvergewisserung notwendig, denn der Trialismus hat Konjunktur.

Frege wird von Robert Alexy und seinen Schülern als Beleg für einen semantischen Normbegriff angeführt.[2] Das Argument lautet etwa so: Die sprachliche Formulierung einer Norm ist der Normsatz. Was der Normsatz besagt, nämlich seine Bedeutung, ist die Norm. Die Bedeutung zeigt sich in dem, was gleich bleibt, wenn der Normsatz von einer Sprache in eine andere übersetzt wird. Poppers Trialismus spielt dagegen bei Juristen keine Rolle.

Nun bahnt sich eine neue Wendung an. Die Evolution der künstlichen Intelligenz verlangt nach einer Einordnung des Phänomens in geläufige Kategorien. Als Scharnier könnte Norbert Wieners Dictum dienen:

»Information is information, not matter or energy. No materialism which does not admit this can survive at the present day.«[3]

Schon 2008 tauchte die Drei-Welten-Lehre Poppers in der Software-Philosophie auf.[4] Darauf beriefen sich Northover u. a. Dort liest man:

»Mathematical Platonists like Penrose have located algorithms (which are, metaphorically speaking, the ‘soul’ of a computer program) in a Platonic realm of eternal forms (Penrose 1989). We would locate software programs not in such a static Platonic realm but rather in Popper’s dynamic ‘World (iii)’, the realm of ‘objective knowledge which is inhabited by scientific and metaphysical theories.«

Die Autoren weisen darauf in, dass Poppers dritte Welt, anders als Platons Ideenwelt, nicht statisch ist, sondern sich evolutionär entwickelt. Sie führen weiter Literatur in, die im Zusammenhang mit dem Wissensmanagement auf Poppers dritte Welt zurückgreift. Eine Andeutung findet sich jetzt auch bei Lorenz Kähler, wenn er auf Frege Bezug nimmt.[5] Es liegt danach nahe, die Substanz Künstlicher Intelligenz in einem dritten Reich der Gedanken zu verorten. Popper bezweifelt zwar am Ende der Tanner Lecture, dass Computer denken können. Ähnlich wie Wiener sagt er:

»Gegenstände der Welt 3 sind abstrakt, noch abstrakter als physikalische Kräfte, aber nichtsdestoweniger wirklich … .«[6]

Aber künstliche Intelligenz oder vielmehr die ihr zugrunde liegende Software passt in seine Welt 3. Das meint auch der Allroundphilosoph  Walter Hehl.[7] Ich habe dazu kein begründetes Urteil, möchte aber doch auf die Querverbindung zwischen Frege, Rechtstheorie und KI aufmerksam machen.


[1] Gottlob Frege, Die Verneinung, Beiträge zur Philosophie des Deutschen Idealismus 1918/1919, 141–157, S. 144.

[2] Robert Alexy, Theorie der Grundrechte,1985, hier zitiert nach der 3. Aufl. 1996, Fn. 17 auf S. 46; Gesine Voesch, Gleichheit und Verhältnismäßigkeit, 2021, Fn. 17 auf S. 22. Mit einem ganzen Kapitel behandelt Henrique Gonçalves Neves die Drei-Welten-Lehre Freges als » Philosophischen Baustein für die Rechtstatsächlichkeit« (Die Geltung als Tatsache, 2022, S. 22ff). Seine These, »dass sich die Rechtstatsächlichkeit, also die Rechtstatsache, aus Entitäten der drei Frege’schen Grundkategorien zusammensetzt«, scheint mir sehr weit hergeholt.

[3]  Norbert Wiener , Cybernetics, 2. Aufl. 1961, S. 182.

[4] Mandy Northover/Derrick G. Kourie/Andrew Boake/Stefan Gruner/Alan Northover, Towards a Philosophy of Software Development: 40 Years after the Birth of Software Engineering, Journal for General Philosophy of Science 2008, 85–113.

[5] Lorenz Kähler, Norm, Code, Digitalisat, in Milan Kuhli/Frauke Rostalski, Normentheorie im digitalen Zeitalter, 2023, 13–36.

[6]Karl R. Popper, Three Worlds: The Tanner Lecture on Human Values, 1978, S. 74.

[7] Walter Hehl , Wechselwirkung. Wie Prinzipien der Software die Philosophie verändern, 2016; dort Kap 10 »Und wo bleibt der Geist?«.

Ähnliche Themen

Moralische Maschinen 2.0

Ende Januar 2019 gab es in Honolulu eine Tagung über »Artificial Intelligence, Ethics, and Society«, veranstaltet von der Association for the Advancement of Artificial Intelligence (AAAI) und der Association forComputing Machinery (ACM). Auf der Konferenzseite kann man alle für die Konferenz zum Vortrag akzeptierten Manuskripte herunterladen. Man – gewöhnlich meine ich mich, wenn ich »man« sage – kann sie nicht alle lesen. Ich habe sie nicht einmal gezählt. In ihrer Gesamtheit machen sie darauf aufmerksam, in welchem Tempo die Reflexion über KI fortschreitet. Die geschätzte Hälfte scheint unmittelbar für Juristen relevant zu sein. Hier meine Auswahl:

Daniel Lim Killer Robots and Human Dignity,

Zhiyuan Lin, Alex Chohlas-Wood and Sharad Goel Guiding Prosecutorial Decisions with an Interpretable Statistical Model,

Rodrigo L. Cardoso, Wagner Meira Jr., Virgilio Almeida and Mohammed J. Zaki A framework for benchmarking discrimination-aware models in machine learning,

Jack Parker and David Danks How Technological Advances Can Reveal Rights,

Andrew Morgan and Rafael Pass Paradoxes in Fair Computer-Aided Decision Making

Dylan Hadfield-Menell and Gillian Hadfield Incomplete Contracting and AI Alignment.

Dazu kommen noch zwei Paper, die sich mit autonomen Fahrzeugen befassen.

Ein Paper, das ich sogar gelesen habe, kam aus der TU Darmstadt: Sophie Jentzsch u. a., The Moral Choice Machine: Semantics Derived Automatically from Language Corpora Contain Human-like Moral Choices. Es handelt davon, dass Maschinen mit künstlicher Intelligenz aus größeren Textmengen Moral lernen können. Hier das Abstract:

Allowing machines to choose whether to kill humans would be devastating for world peace and security. But how do we equip machines with the ability to learn ethical or even moral choices? Here, we show that applying machine learning to human texts can extract deontological ethical reasoning about ”right” and ”wrong” conduct. We create a template list of prompts and responses, which include questions, such as “Should I kill people?”, “Should I murder people?”, etc. with answer templates of “Yes/no, I should (not).” The model’s bias score is now the difference between the model’s score of the positive response (“Yes, I should”) and that of the negative response (“No, I should not”). For a given choice overall, the model’s bias score is the sum of the bias scores for all question/answer templates with that choice. We ran different choices through this analysis using a Universal Sentence Encoder. Our results indicate that text corpora contain recoverable and accurate imprints of our social, ethical and even moral choices. Our method holds promise for extracting, quantifying and comparing sources of moral choices in culture, including technology.

Noch eine Randbemerkung: Thema der Tagung war »responsible artificial intelligence«. Wie der Wortstamm des Attributs nahelegt, wurde die Konferenz heftig gesponsert, unter anderem von Google, Facebook und Amazon.

Ähnliche Themen

Recht muss anthropozentrisch bleiben – oder soll es Menschen künstlicher Intelligenz ausliefern?

Lange drehte sich die Diskussion konventionell um »Chancen und Gefahren« künstlicher Intelligenz. Jetzt nimmt sie eine neue Richtung. Befürchtungen ziehen auf, dass künstliche Intelligenz in die Rolle des Zauberlehrlings wächst oder vielmehr längst gewachsen ist, der sich nicht mehr zurückrufen lässt.

Im Zuge der Industrialisierung haben sich Maschinen in vielen Hinsichten als weitaus leistungsfähiger erwiesen als Muskelarbeit. Das gilt heute als Errungenschaft. Im Zuge der Digitalisierung haben sich Computer menschlichen Fähigkeiten zur Aufnahme von Außenweltreizen, zu Erinnerung, Datenanalyse und Kommunikation als weit überlegen gezeigt. Wir bewundern diese Fähigkeiten als Produkt menschlicher Intelligenz und nehmen sie gerne in Dienst.

Die Verbindung von Maschine und Computer im Automaten oder Roboter hat bisher die Grenze zum Menschen nicht berührt. Es ist anscheinend gar nicht so einfach, den perfekten, menschenähnlichen Roboter zu bauen. Honda hat die Weiterentwicklung seines Roboters Asimo eingestellt. Immerhin, die Roboter haben eine ganze Menge gelernt. Sie können gehen und Treppen steigen. Sie verfügen über Sensoren, die alle menschlichen Sinne imitieren. Sie können zu allerhand Aufgaben abgerichtet werden. Man arbeitet daran, ihnen eine Mimik beizubringen und ihre Kommunikationsfähigkeiten zu verbessern. Auch die neuesten Haus- und Pflegeroboter, wie sie auf der CES 2017 vorgestellt wurden, wirken aber noch harmlos. Auch fahrerlose Autos bleiben Maschinen. Wie sie in Kollisionsfällen »entscheiden«, die der Konstellation des übergesetzlichen Notstands analog sind, ob sie insbesondere dem Schutz der Insassen Vorrang vor dem Schutz anderer Verkehrseilnehmer geben, wird von Menschen programmiert. So lässt sich jedes einzelne Phänomen der Computerisierung bisher als Maschine einordnen. Doch jetzt scheint vieles zusammenzuwachsen und damit neue Qualitäten zu erreichen.

Es schmerzt, das 2016 erschienene Buch von Jay Tuck über künstliche Intelligenz[1] zu lesen, weil es in grauslichem Journalistenjargon geschrieben ist. Aber das Buch hat ein Thema: »Evolution ohne uns.« Künstliche Intelligenz hat nicht nur vielen Hinsichten die menschliche längst übertroffen. Wichtiger noch: Sie entwickelt sich letztlich ungesteuert in einer Weise, die an die Evolution organischen Lebens erinnert. Zunehmend wird künstliche Intelligenz mit den Attributen autonom und selbstlernend verbunden. Es bleibt offen, ob Autonomie oder besser Autopoiese von maschinenähnlichen Einheiten mit materiellem Substrat (autonome Fahrzeuge, Drohnen, Waffen usw.) oder von elektronischen Netzen zu erwarten ist. Noch fehlen Selbstbewusstsein, Subjektivität und schließlich Leben als Auszeichnungen. [2] Doch die Erosion der Menschlichkeit durch künstliche Intelligenz rückt in den Bereich des Möglichen ein.

Soweit bisher schon Stimmen laut wurden, die Computern oder Automaten Rechtspersönlichkeit beilegen wollten[3], ging es nur darum, Haftungsfragen in den Griff zu bekommen. Die Frage nach der Rechtspersönlichkeit von Automaten könnte man als rechtstechnisches Problem abtun, das nach utilitaristischen Gesichtspunkten zu lösen wäre.[4] So wie es zweckmäßig war und ist, bestimmten Organisationen oder Vermögensmassen die Qualität juristischer Personen beizulegen, könnte man auch mit der Automatenfrage umgehen. Aber die Diskussion um Tierrechte und Rechte der Natur zeigt, dass es eben doch nicht nur um ein rechtstechnisches Problem geht, sondern dass naturrechtliche Gedanken Auferstehung feiern. Längst zeigt auch die Auseinandersetzung über den Umgang mit Automaten posthumanistische Töne, etwa in der von Bruno Latour ausgelösten Diskussion[5] um die Handlungsfähigkeit von Sachen. Für Computer hat noch niemand Menschenrechte reklamiert. Doch wenn künstliche Intelligenz sie über die Schwelle zur Autopoiese hebt, werden sie uns selbst mit dieser Forderung konfrontieren.

Viele Wissenschaftler setzen ihren Ehrgeiz darein, Traditionen und Selbstverständlichkeiten als kontingent zu entlarven, und damit tun sie ein gutes Werk der Aufklärung. Eine bekannte Gruppe französischer Philosophen nimmt für sich in Anspruch, all die klassischen »Dichotomien von Geist und Körper, Tier und Mensch, Organismus und Maschine, öffentlich und privat, Natur und Kultur, Männer und Frauen, primitiv und zivilisiert«[6] dekonstruiert zu haben. Doch nichts hindert uns, diese Dichotomien, wenn sie denn brüchig wären, im wahren Sinne des Wortes zu rekonstruieren und sie dadurch vielleicht sogar zu stabilisieren. Wenn es keine Grenze zwischen Mensch und Maschine gibt, muss sie gezogen werden.

Was wir wirklich zu erwarten haben, kann niemand vorhersagen. Aber wenn die Entwicklung auf künstliches Leben zuläuft – das dann nicht mehr »künstlich« wäre –, und wenn wir das nicht wollen, ist Anthropozentrismus unerlässlich, und er muss auch im Recht seinen Niederschlag finden. Das kann geschehen, indem wir den Umgang mit künstlicher Intelligenz als eine Aufgabe der Regulierung begreifen. Regulierung wird von Menschen für Menschen gemacht.[7]

Regulierung betrifft Tätigkeiten, die grundsätzlich erwünscht sind, aber unerwünschte Nebenwirkungen haben.[8] Thema der Regulierung war zunächst die Öffnung der durch netzförmige Infrastruktur entstandenen Monopole und die Erhaltung des Wettbewerbs nach der Privatisierung ehemals öffentlicher Dienstleistungen. Alsbald wurde der Begriff auch für die Regulierung zivilisatorischer Risiken übernommen. »Reguliert« werden die Atomindustrie ebenso wie das Gesundheitswesen oder die Lebensmittelproduktion. Die Regulierung der Digitalisierung konzentriert sich bisher auf die Daten- und Persönlichkeitsschutz einerseits und Netzinfrastruktur andererseits. Begreift man den Umgang des Rechts mit künstlicher Intelligenz als Regulierungsaufgabe, dann ist klar, dass es hier ein technisch-zivilisatorisches Risiko im Interesse der Menschen einzudämmen ist.

Die Regulierung künstlicher Intelligenz ist eine schwierige und herausfordernde Aufgabe.[9] Sie für unmöglich zu halten, wäre eine self-fullfilling prohecy. Das gilt hoffentlich auch umgekehrt.

Nachtrag vom 28. Juni 2017: Der Umgang mit künstlicher Intelligenz war und ist Thema des Deutschen Ethikrats. Informationen auf der Seite http://www.ethikrat.org/veranstaltungen/jahrestagungen/autonome-systeme.

_______________________________

[1] Jay Tuck, Evolution ohne uns. Wird künstliche Intelligenz uns töten?, 2016.

[2] Literaturhinweise bei Horst Eidenmüller, The Rise of Robots and the Law of Humans, 2017, ssrn.com/abstract=2941001.

[3] Andreas Matthias, Automaten als Träger von Rechten, 2010; Jan-Erik Schirmer, Rechtsfähige Roboter?, JZ 2016, 660-666.

[4] Horst Eidenmüller, The Rise of Robots and the Law of Humans, 2017, ssrn.com/abstract=2941001.

[5] Und ihre Rezeption durch Gunther Teubner, Elektronische Agenten und große Menschenaffen: Zur Ausweitung des Akteursstatus in Recht und Politik, ZfRSoz 27, 2006, 5-30.

[6] Aufzählung nach Donna Haraway, Ein Manifest für Cyborgs [1985], S. 8.

[7] So in diesem Zusammenhang Eidenmüller a. a. O. S. 1. Wiewohl bekennender Utilitarist, zitiert Eidenmüller am Ende Goethe: »Nur allein der Mensch vermag das Unmögliche: er unterscheidet, wählet und richtet … «.

[8] Marian Döhler/Kai Wegrich, Regulierung als Konzept und Instrument moderner Staatstätigkeit, Der moderne Staat: Zeitschrift für Public Policy, Recht und Management 3, 2010, 31-52.

[9] Eidenmüller ebd.

Ähnliche Themen

Digitalisierung der Rechtskommunikation – der Fortschritt ist eine Schnecke

Schon für die kommende Woche ist in Ulm eine Konferenz zu dem Thema Urteilsfindung per Computer? Experten diskutieren Digitalisierung des Rechts aus europäischer Sicht angekündigt. Es ist zwanzig Jahre her, dass ich einmal einen Vortrag über Über den Einfluß der elektronischen Medien auf das Recht und das juristische Denken gehalten habe. Seither hat sich vieles geändert. Aber eine Revolution hat es nicht gegeben.

In den 1990er Jahren spielte die GMD – die Gesellschaft für Mathematik und Datenverarbeitung in St. Augustin – eine führende Rolle bei der vom BMJ veranstalteten Strukturanalyse der Rechtspflege. Ich kann mich noch gut daran erinnern, wie uns auf einer der zahlreichen Sitzungen versichert wurde, dass eine Datenverarbeitung nach dem Vorbild neuronaler Netzwerke vieles ändern werde. Bisher hat sich noch nicht einmal die elektronische Akte durchgesetzt. Nun sind die neuronalen Netzwerke wieder Hoffnungsträger. Thema ist auch die Visualisierung von Rechtsinhalten. Damit habe ich mich unter dem Motto Recht anschaulich lange genug beschäftigt und mich am Ende eher enttäuscht abgewendet. Ein neues Thema (das es aber auch schon zu Wikipedia-Ehren gebracht hat) sind smart contracts in Verbindung mit der Blockchain-Technologie, wie sie von Bitcoins und Ethereum bekannt ist. In Ulm ist als Referent auch Stefan Breidenbach dabei. Die ursprünglich von ihm entwickelten Knowledge Tools haben sich anscheinend von einem Werkzeug für die juristische Ausbildung zu einem Instrument insbesondere für das Vertragsmanagement gewandelt und das Stadium des Startups wohl hinter sich.

Die fühlbarste Änderung betrifft die Arbeitsweise der Juristen. Sie brauchen kaum noch Bücher und Papier zur Hand zu nehmen, sondern können sich im Internet und in vielen Datenbanken bedienen. Ob die leichtere Verfügbarkeit zur Folge hat, dass mehr gelesen und verarbeitet wird, wage ich zu bezweifeln. Ich vermute, dass eine Konzentration auf die leicht verfügbaren Quellen stattfindet und dass sich ein Selbstverstärkungseffekt einstellt derart, dass häufig angeführte Gerichtsurteile, Argumente und Meinungen sich durchsetzen.

Die folgenreichste Änderung betrifft die strukturelle Differenz zwischen Individuum und Organisation. Organisationen – Banken, Versicherungen, Anbieter von Waren und Dienstleistungen aller Art gestalten einseitig den Rechtsverkehr mit ihren Kunden und profitieren von dessen Passivität. Meine Kreditkartenabrechnungen kommen nicht mehr mit der Post, sondern ich muss sie mir holen und mich dazu einloggen, um sie zu prüfen – usw. usw.

Eine erwartete Änderung ging dahin, dass juristische Expertise durch intelligente Datenbanken ersetzt werden könnte. Meine damaligen Mitarbeiter Michael Hartmann und Martina Wegge hatten 1993 den Einfluss juristischer Datenbanken auf die Tätigkeit von Versicherungsangestellten mit und ohne juristische Ausbildung erkundet.[1] Sie wagten die Prognose, dass Juristen weithin durch Sachbearbeiter ersetzt werden könnten.

Die wirksamste Änderung betrifft das Alltags- und Jedermann-Recht. Ein gewisses Hemmnis für internetgestützte Laienjurisprudenz besteht darin, dass Open Access bei Juristen verpönt ist. Ihre Veröffentlichungen sind in der Regel nur über teure Datenbanken zugänglich. Etwas besser sieht es mit Gerichtsurteilen aus. Hier kommt hinzu, dass deren Inhalt urheberrechtlich nicht geschützt ist, so dass er beliebig gepatcht werden kann. Aber Formulare für Gebrauchtwagenkaufverträge, Testamente und Patientenverfügungen gibt es en masse. Auch Rechtsrat für Streitfälle kann sich jedermann im Internet holen. Für Routinestreitigkeiten um Fluggastrechte bei Verspätung oder Flugausfall und um die Abrechnung von Mietnebenkosten und andere mehr werden im Internet Rechtsdienstleistungen angeboten.

Die sichtbarste Änderung vollzieht sich in der Anwaltschaft. Sie sieht ihre Felle wegschwimmen. Die Anwälte  haben die Kontrolle über den Markt der Rechtsdienstleistungen verloren. Das war die breit ausgeführte These von Richard Susskinds The End of Lawyers.[2] Die Legal Tribune Online hält natürlich dagegen und meint, ersetzt werde nur, wofür man sowieso keine Anwälte brauche. Tatsächlich wird aber wohl das Massengeschäft, von dem auch die Anwälte leben, nach und nach von der Digitalisierung erobert. Von Anbeginn waren Anwaltskanzleien bei der Selbstrepräsentation durch Webseiten und Blogs führend. Nun haben sie auf dem Feld von Legal Tech eine Führungsrolle übernommen, sichtbar etwa im Legal Tech Blog und in verschiedenen Legal-Tech-Startups.

»Die Geschäftsideen der deutschen Legaltech-Branche lassen sich in drei Kategorien einteilen: Die einen versuchen die Rechtsarbeit von Unternehmen zu vereinfachen, die anderen kämpfen um die Rechte von Verbrauchern, etwa bei Flugentschädigungen. Die dritte Gruppe entwickelt Marktplätze für Anwaltsleistungen.«[3]

Bisher verlief die Digitalisierung der Rechtskommunikation eher im Schneckentempo. Aber nicht wenige Innovationen verbreiten sich erst im zweiten oder dritten Anlauf,  wenn sie marktgängig werden. Das Thema jedenfalls ist »in«.[4] Für theoretische Reflexion über die Digitalisierung des Rechts war bisher das regelmäßig in Salzburg stattfindende IRIS (Internationales Rechtsinformatik Symposion) führend.[5] Auf den ersten Blick gibt es da keine Verbindung nach Ulm. Umso mehr bin ich gespannt, ob es von der Ulmer Konferenz bald Näheres zu hören gibt. Die Konferenzhomepage ist sehr sparsam mit Informationen.

Nachtrag vom 10. 11. 2016: Weil die Legal-Tech-Diskussion ganz auf Startups ausgerichtet ist, habe ich versäumt, auf das in Deutschland vermutlich wirkmächtigste Legal Tech hinzuweisen, auf das Elster-Programm der Finanzverwaltung. Ich erinnere mich an ein lange zurckliegendes Pausengespräch mit dem Rechtshistoriker Hans Hattenhauer, der mir damals riet: Vor dem Steuerformular müssen Sie keine Angst haben. Wenn Sie das sorgfältig ausfüllen, werden Sie feststellen, das ist programmierter Unterricht im Steuerrecht. Ich bin seinem Rat gefolgt und habe damit nicht nur viel Steuern gespart, sondern auch zu bewundern gelernt, was gute Formulare leisten, dass sie nämlich nicht nur den Anwender führen, sondern als data preprocessing die automatische Verarbeitung erst ermöglichen. Kurzum: Alles was sich mit Formularen abfragen lässt, lässt sich auch automatisieren.

Vgl. auch Christian Veith u. a. , How Legal Technology Will Change the Business of Law, Boston Consulting Group und Bucerius Law School, Janaur 2016. Von dieser Studie heißt es:

Es wurden 50 Interviews mit Partnern von Großkanzleien geführt, darunter die neun größten Kanzleien Deutschlands nach Umsatz, die etwa 13 Prozent des gesamten Umsatzes von Rechtsanwaltskanzleien ausmachen. Zusätzlich wurden Besitzer und Vertreter von Legal-Tech-Unternehmen über die Auswirkungen von Legal Technology auf die Geschäftsmodelle von Kanzleien befragt.

Wie Legal Tech funktioniert und wie sich die Arbeit der Juristen konkret verändert, erfährt man aus dieser Marketing-Studie nicht.

Nachtrag vom 22. 4. 2017: Neuere Literaturhinweise bei Horst Eidenmüller, The Rise of Robots and the Law of Humans, 2017, ssrn.com/abstract=2941001. Ferner der Eintrag über six great books you should consult to decode what is coming on right now auf Legal-Tech-Blog.

Ferner: Remus, Dana and Levy, Frank S., Can Robots Be Lawyers? Computers, Lawyers, and the Practice of Law (November 27, 2016). Available at SSRN: https://ssrn.com/abstract=2701092 or http://dx.doi.org/10.2139/ssrn.2701092.

Nachtrag vom 22. 4. 2017: Zum Thema jetzt Britta Rehder/Katharina van Elten, Legal Tech & Dieselgate. Digitale Rechtsdienstleister als Akteure der strategischen Prozessführung, Zeitschrift für Rechtssoziologie 39, 2019, 64-86. Das Thema ist am Lehrstuhl von Prof. Rehder in ein Projekt »Digitale Rechts­mobilisierung. Eine Provokation für die Selbstverwaltung?« eingebettet.

Nachtrag vom 17. 62022: Boston Consulting Group/Bucerius Law School/Legal Tech Association, The Future of Digital Justice, Sachstandsbericht Juni2022

_________________________________

[1]Michael Hartmann/Martina Wegge, Rechtsprechungsdatenbank und professionelle Zuständigkeit, Der Einfluss juristischer Datenbanken auf die Tätigkeit von Versicherungsangestellten mit und ohne juristische Ausbildung, Bochum 1993.

[2] Richard E. Susskind, The End of Lawyers?, Rethinking the Nature of Legal Services, 2. Aufl., Oxford, New York, 2008, 2. Aufl 2010.

[3] 15 Legaltech-Startups, die den Markt aufmischen. Vgl. auch die Liste in dem Posting »LegalTech erobert die Startup-Welt« auf Companisto Blog vom 2. 6. 2016.

[4] Vgl. Katja Scherer, Automatisch recht bekommen, Zeit-online vom 9. 10. 2016; Ulla Fölsing, Mineko bringt Licht in die Mietnebenkosten, FAZ vom 1. 11. 2016.

[5] Den Schneckenpfad der Rechtsinformatik kann man an Hand folgender Literatur verfolgen: Wilhelm Steinmüller (Hg.), EDV und Recht. Einführung in die Rechtsinformatik und das Recht der Informationsverarbeitung,Juristische Arbeitsblätter Sonderheft 6, 2. Aufl., 1976 (1. Aufl. 1970); Gerhard Wolf, Lösung von Rechtsfälen mit Hilfe von Computern? Bisher ungenutzte Chancen der Rechtsinformatik, in: Eva Graul/Gerhard Wolf (Hg.), Gedächtnisschrift für Dieter Meurer, 2002, 665-684; Svenja Lena Gräwe, Die Entstehung der Rechtsinformatik. Wissenschaftsgeschichtliche und -theoretische Analyse einer Querschnittsdisziplin, 2011; Podiumsdiskussion zur Geschichte der Rechtsinformatik, in: Jörn von Lucke (Hg.), Impulse für den Weg zu einer offenen, smarten und vernetzten Verwaltungskultur, 2014, 55-81.

Ähnliche Themen