Objekterkennung, Kategorisierung und Ähnlichkeit

Das geisteswissenschaftliche Konzept der Begriffsbildung als Abstraktion von singulären Gegenständen impliziert eine bestimmte Theorie über Objekterkennung und Kategorisierung. Solche Theorien werden in der kognitiven Psychologie erörtert und getestet – und sind dort ähnlich umstritten wie viele juristische »Theorien«. Dennoch ist ein Blick in die Kognitionswissenschaften hilfreich, denn man stößt auf Probleme, wie sie ähnlich bei der rechtstheoretischen Erörterung der Analogie auftreten. Dabei gilt es, die Parallelen (oder Analogien?) zwischen menschlichem und maschinellem Lernen[1] im Auge zu behalten.

Waldmann, auf dessen Lehrbuchkapitel ich mich hier weitgehend stütze, spricht hinsichtlich der im vorangehenden Abschnitt angedeuteten (und von mir so genannten) Attributionstheorie von der klassischen Sicht, die bis in die 1960er Jahre dominiert habe.[2] Aus dieser Sicht werden Objekte an Hand definierter Attribute in Kategorien abgespeichert, die als scharf begrenzte Mengen oder Gattungen erscheinen. Insofern handelt es sich um regelbasierte Theorien. Diese Sicht passt gut zu der Vorstellung, dass die Algorithmen der KI entsprechend den Ladungszuständen der Elektronik auf Entweder-Oder-Schaltungen aufbauen. Sie passt ebenso zu der für Juristen naheliegenden Annahme, dass Wissen symbolisch repräsentiert wird. Tatsächlich sind Menschen aber vielfach im Zweifel, welcher Kategorie sie ein Objekt zuordnen sollen. Deshalb hat die Psychologie Theorien entwickelt, die dem Umstand Rechnung tragen sollen, dass die Grenzen zwischen den Kategorien nicht als diskret erscheinen. Es handelt sich um Prototypentheorien und Exemplartheorien.

Nach den Prototypentheorien werden charakteristische Merkmale von einer Vielzahl von Objekten zu Kategorien zusammengefügt, indem von diesen Merkmalen abstrahiert wird. Deshalb werden sie auch Abstraktionstheorien genannt. Die »Kategorisierung wird dann als Ähnlichkeitsvergleich zwischen dem zu kategorisierenden Exemplar und der Prototypenrepräsentation vollzogen.«[3] Der Jurist als Laienpsychologe würde eher annehmen, dass sich der Vorgang umgekehrt abspielt, dass also zuerst Objekte als gleich kategorisiert und hernach die scharfen Grenzen der Kategorie aufgeweicht werden. Wie dem auch sei; in jedem Fall kämpfen die Prototypentheorien mit dem Problem der linearen Trennbarkeit, das heißt mit der Frage, ob eine klare Zuordnung zu dem einen oder anderen Prototyp, sei es mit Hilfe additiver, sei es mit Hilfe gewichteter Merkmalskombinationen, möglich ist. Die Parallele zu den Problemen der juristischen Methodenlehre mit »Typen im Recht und in der Rechtswissenschaft«[4] liegt auf der Hand.

Exemplartheorien gehen davon aus, dass das Gedächtnis über Kategorien von gleichartigen Objekten verfügt, abweichende Exemplare jedoch individuell speichert, um sie dann nach Ähnlichkeit einer Kategorie zuzuordnen. Es fällt dieser Theorie jedoch schwer, die Ähnlichkeitsbeziehung zu operationalisieren. Davon abgesehen dürfte das Gedächtnis durch die Speicherung zahlloser Exemplare bald überfordert sein.

Die drei Basistheorien – Regeltheorie, Prototypentheorie und Exemplartheorie – reichen ohne Zusatzannahmen nicht aus, um das Kategorisierungsproblem zu erklären. Daher redet man von diesen Theorien im Plural. Der Grund wird klar, wenn man die Parallele zum maschinellen Lernen bedenkt. Künstliche Intelligenz ist an der Basis im wahren Sinne digital, weil alle Algorithmen auf dem Entweder-Oder elektrischer Schaltungszustände aufbauen. Vermutlich arbeiten auch die Nervenzellen des Gehirns mit einem digitalen »Maschinencode«. Allerdings bilden die einzelnen Nervenzellen (Neuronen) schon eine höhere Ebene, denn sie antworten nicht auf singuläre Signale, sondern mit einer Schwellenlogik auf addierte und gewichtete Reize. Psychologen beobachten nur die »Hochsprache« des Gehirns, die in neuronalen Netzen[5] programmiert ist, ohne dass sie das Programm selbst kennen. Sie können es nur aus ihren Beobachtungen erschließen.

Künstliche Intelligenz der alten Schule arbeitet wie die Regeltheorie der Psychologen mit kodifizierten Regeln, die auf digitalem Maschinencode aufbauen. In Symbolen ausformulierte Anwenderprogramme definieren Schritt für Schritt, was der Computer rechnen soll. So genannte Compiler übersetzen die Befehle in die Maschinensprache. Schon in den 1980er Jahren, als man sich bei der GMD in Bonn-St. Augustin und später in Saarbrücken traf, um das Datenbanksystem JURIS in Gang zu bringen, war viel von neuronalen Netzen die Rede. Aber erst in den letzten 20 Jahren ist es gelungen, neuronale Netze nachzubauen, die die Arbeit des Gehirns imitieren. Sie können Rohdaten selbständig kategorisieren und Muster oder Regeln erkennen. Auf diesem Wege sind insbesondere Bilderkennung und Sprachverstehen möglich geworden. Verschiedene Schulen maschinellen Lernens verfolgen unterschiedliche Ansätze, die man vermutlich den Prototypentheorien oder den Exemplartheorien zuordnen kann. In jedem Fall werden die Programme anhand großer Mengen von Rohdaten »trainiert«. Die dafür entwickelten Algorithmen sind eine Wissenschaft für sich.[6] Letztlich müssen auch diese Programme in binäre Befehle an die Maschine umgesetzt werden. Aber die erlernten Lösungswege zur Kategorisierung bleiben implizit.

Was folgt daraus für das Analogieproblem in den Geisteswissenschaften im Allgemeinen und in der Jurisprudenz im Besonderen? Wenig. Immerhin wird man dort nach Analogien für die drei Basistheorien der Kategorisierung suchen, um festzustellen, dass die Jurisprudenz von einer Regeltheorie ausgeht, aber damit ihre Probleme nicht wirklich lösen kann und daher ihre Regeltheorie durch Typentheorien und eben auch durch Analogien modifiziert. Für die Exemplartheorien sehe ich vorläufig keine juristische Entsprechung. Umgekehrt habe ich für die juristischen Prinzipientheorien, von denen so viel die Rede ist, in der kognitiven Psychologie noch keine Grundlage gefunden.

[Fortsetzung hier.]


[1] Simon Weitz, Parallelen zwischen dem menschlichen und maschinellen Lernen, 2018, eine im Internet verfügbare Seminarhausarbeit aus Bamberg, referiert gekonnt vor allem das Lehrbuchkapitel von Michael Waldmann.

[2] Michael R. Waldmann, Kategorisierung und Wissenserwerb, in: Jochen Müsseler/Martina Rieger (Hg.), Allgemeine Psychologie, 3. Aufl. 2017, 357-399. Gut verständlich und hilfreich finde ich auch immer wieder die (nicht mehr ganz neue) »Kognitive Psychologie«  von John R. Anderson (3. Aufl. von 2001). Einschlägig ist hier besonders das Kapitel 5 über »Bedeuutungsbezogene Wissensrepräsentation« (S. 139-172).

[3] Waldmann a. a. O. S. 362 li.Sp.

[4] So der Titel von Hans J. Wolff, Studium Generale 5, 1952, 196-XXX.

[5] Eine für Juristen noch verständliche Einführung bietet die Internetseite »Neurale Netzwerke« des IBM Cloud Learn Hub [www.ibm.com/de-de/cloud/learn/neural-networks].

[6] Dazu etwa der Sammelband von Kristian Kersting/Christoph Lampert/Constantin Rothkopf (Hg.), Wie Maschinen lernen. Künstliche Intelligenz verständlich erklärt, 2019.

Ähnliche Themen

Analoges Enkodieren

Früher berief man sich dafür auf Aristoteles. Heute zieht man es vor, die Analogiebildung mit Hilfe kognitionswissenschaftlicher Modelle und ihrer »analogen« Modellierung in Computerprogrammen[1] zu beschreiben. Diese Modellierung ist als structure-mapping (Gentner) oder analoges Enkodieren geläufig.

Vor der Ähnlichkeit kommt die Gleichheit. Analoges Denken setzt zunächst die Entwicklung von Konzepten (Mustern oder Typen) voraus, um aus Sinneseindrücken oder Rohdaten die Gleichheit von Objekten (items) zu erkennen.[2] Konzepte sind formalisierte Abbildungen der in den Geisteswissenschaften so genannten Begriffe. Ein solches Konzept beschreibt das Kinderlied:

  • Punkt, Punkt, Komma, Strich,
  • fertig ist das Mondgesicht.
  • Oben kommen Haare dran,
  • Ohren, dass er hören kann,
  • Hals und Bauch hat er auch,
  • Arme noch und Beine dran,
  • fertig ist der kleine Mann!

Für das Konzept »Gesicht« genügen die ersten beiden Zeilen. Sie benennen Strukturmerkmale (Attribute, properties), anhand derer Menschen und Computer Gesichter als Objekte erkennen können. Punkt, Komma und Strich wären für sich genommen noch zu wenig. Erst im Kontext eines Kreises (Mond-»gesicht«) werden sie hinreichend unterscheidungskräftig. Solche mentalen Konzepte erwirbt das Gehirn selbsttätig. Dem Computer werden sie künstlich beigebracht. Ein »Konzept« wird auch als domain oder semantisches Feld bezeichnet. Aus Konzepten entstehen »Ontologien«. Sie bilden die Basis des semantic web.

Attribute als Merkmale eines Konzepts werden schlicht aufgezählt. Sie können durch (zweistellige) Relationen spezifiziert werden (die Nase sitzt zwischen Augen und Mund). Konzepte gewinnen an Trennschärfe, wenn die Merkmale vervollständigt werden (so in den weiteren Zeilen des Liedes das Gesicht durch Haare und Ohren) und wenn die Merkmale nicht an der Oberfläche (Form, Größe, Zahl) bleiben, sondern durch Funktionen (»Ohren, dass es hören kann«) vertieft werden. Schließlich wird aus dem Konzept »Gesicht« das umfassendere eines ganzen Menschen (»fertig ist der kleine Mann«). Der »Mensch« kann wiederum von anderen Konzepten abgegrenzt werden, etwa von »Steinen«, »Tieren« und »Pflanzen«. Die Differenzierung kann aber auch in die andere Richtung gehen, wenn die Nase nicht als unselbständiges Attribut, sondern als selbständiges Objekt zum Konzept wird. Ferner lassen sich ganze Konzepte (die damit zu »Knoten« werden) durch Relationen verknüpfen. »Tiere« werden von »Menschen« »gejagt«; »Pflanzen« werden von »Tieren« »gefressen«.

Konzepte mit ihren Merkmalen verhelfen zur Mustererkennung. Mustererkennung ist auf Gleichheit ausgerichtet. Aber keine zwei Gesichter sind wirklich gleich. So funktioniert schon die Erkennung von Gleichheit mit Hilfe von Attributen, die eigentlich nur Ähnlichkeit begründen, denn sie greifen nur bestimmte Aspekte als Merkmale heraus.[3]

Man kann davon ausgehen, dass der Kognitionsprozess auf Wiederkennung angelegt ist und daher, wo zur Gleichheit etwas fehlt, Ähnlichkeit konstatiert. Das Ähnliche ist das bereits zum Teil Bekannte. Unbekannte Objekte werden als ähnlich erkannt, wenn sie etwas mit bekannten Objekten gemeinsam haben, das heißt, wenn sie einer Gattung mit weniger Merkmalen angehören. Damit ist in der Fähigkeit zur Mustererkennung eine gewisse Asymmetrie in Richtung auf Wahrnehmung von Ähnlichkeit begründet. Dieser Analogie-Bias lässt sich vielleicht damit erklären, dass der Erwerb mentaler Konzepte von grob zu fein verläuft. Im Laufe der kognitiven Entwicklung werden die mentalen Konzepte differenzierter. Aus dem Konzept »Gesicht« werden »Kindergesicht«, »Greisengesicht«, »Frauengesicht«, »Männergesicht«, »Menschengesicht«, »Tiergesicht«, und schließlich wird sogar der Mond als »Gesicht« wahrgenommen. Doch das allgemeinere Konzept »Gesicht« bleibt in Erinnerung und lässt bei Bedarf als ähnlich erscheinen, was seine Attribute erkennen lässt.

Vergleichskandidaten aus der gleichen semantischen Domäne, die sich nur in einem oder mehreren Attributen (oder Relationen) unterscheiden, sind ungleich, aber einander ähnlich. In der Terminologie mittelalterlicher Philosophen handelt es sich um eine analogia attributiva. Eine attributive Analogie liegt vor, wenn die Ähnlichkeit sich daraus ergibt, dass verschiedene Gegenstände gemeinsame Attribute oder Strukturmerkmale aufweisen:

A (a, b, c, d) ≈ B (c, d, e, f).

Fahrräder und Motorräder sind sich insofern ähnlich, als sie beide Räder haben. Tertium comparationis ist hier das gemeinsame Merkmal »Räder«. Es dient dazu, die Vergleichsgegenstände als Teilmenge einer übergeordneten Gattung zuzuordnen.

Informatiker messen die attributive Ähnlichkeit mit dem Jaccard Similarity Index.

An dieser Stelle drängt sich die »Analogie« zwischen den Konzepten der Kognitionswissenschaften und der künstlichen Intelligenz auf der einen Seite und der Begriffsbildung in den Geisteswissenschaften auf. Letztere unterscheiden zwischen Begriffsbildung und Eigennamen. Im Unterschied zu Eigennamen erbringen Begriffe eine Abstraktionsleistung, indem sie Objekte einer Gattung zuweisen.

Nachtrag: Punkt, Punkt, Komma, Strich – wie unser Gehirn Strichzeichnungen erkennt, nämlichnicht anders als Bilder bzw. umgekehrt: Johannes J.D. Singer/Radoslaw M. Cichy/Martin N. Hebart, The Spatiotemporal Neural Dynamics of Object Recognition for Natural Images and Line Drawings, Journal of Neuroscience, 19 December 2022, JN-RM-1546-22. Leider verraten uns die Psychologen nicht, wie das Gehirn die Bilder speichert. Sie sind sich wohl noch immer nicht einig, nach  welche ihrer drei Basistheorien (Regeltheorie, Prototypentheorie und Exemplartheorie) das Gehirn verfährt. Auf dem Gebiet des maschinellen Lernens konkurrieren sog. classification algorithms mit neuronalen Netzen, von denen man wohl immer noch nicht genau weiß, wie sie funktionieren.

 

[Fortsetzung hier.]


[1] Copycat war ein Computerprogramm, entwickelt von Douglas Hofstadter und Melanie Mitchell, das den menschlichen Kognitionsprozess nachahmen und zeigen sollte, wie Menschen in Analogien denken (The Copycat Project: A Model of Mental Fluidity and Analogy-Making).

[2] Zur Konzeptbildung Sieghard Beller/Andrea Bender, Allgemeine Psychologie – Denken und Sprache, 2010, S. 27ff.

[3] Im Detail ist der kognitive Prozess der Objekterkennung komplizierter. Er wird nicht nur durch Merkmale, sondern auch durch deren Kontext gesteuert. Dazu immer noch hilfreich John R. Anderson, Kognitive Psychologie, 3. Aufl., 2001.

Ähnliche Themen

Dionysos und Ares – Becher und Schild

Der Begriff der Analogie geht in das griechische Altertum zurück.[1] Dort gebrauchte ihn wohl zuerst Archytas von Tarent, ein älterer Zeitgenosse Platons, und zwar für mathematische Proportionen wie die Gleichung A:B = B:C. Aristoteles sprach zwar weiter von der Analogie als Proportion, verwendete diesen Ausdruck aber nicht mehr quantitativ, sondern in einem übertragenen Sinne qualitativ. Juristen ist geläufig, dass Aristoteles in der Nikomachischen Ethik die Gerechtigkeit ausführlich als »etwas Proportionales« behandelt hat.[2] Wenn es um Analogien geht, zitiert man jedoch meistens seinen berühmten Vergleich des Bechers des Dionysos mit dem Schild des Ares aus der »Poetik«:

»Analogie nenne ich es, wo das zweite sich zum ersten verhält wie das vierte zum dritten. Dann wird an Stelle des zweiten das vierte gesagt oder an Stelle des vierten das zweite. Und gelegentlich wird auch beigefügt, auf was es sich bezieht und wofür es gesetzt ist. So verhält sich etwa der Becher[3] zu Dionysos wie der Schild zu Ares. Dann wird man den Becher ›Schild des Dionysos‹ nennen und den Schild ›Becher des Ares‹. Oder wie das Alter sich zum Leben verhält, so verhält sich der Abend zum Tage. Man wird also den Abend ›Alter des Tages‹ nennen und das Alter ›Abend des Lebens‹ oder wie Empedokles ›Sonnenuntergang des Lebens‹.« [4]

Dieses Beispiel werden wir alsbald als eine unvollständige proportionale Analogie einordnen. Was wir heute gewöhnlich als Analogie ansprechen, war bei Aristoteles der induktive rhetorische Beweis, das Paradigma (dazu später unter X). Zuvor sollen jedoch einige Grundzüge der Objekterkennung und Kategorisierung angedeutet werden, weil sie Voraussetzung der Ähnlichkeitswahrnehmung sind.

[Fortsetzung hier.]


[1] Einen ausführlichen Überblick über ältere psychologische Theorien der Analogiebildung gibt Robert J. Sternberg, Intelligence, Information Processing, and Analogical Reasoning, 1977, S. 101-133.

[2] Klaus F. Röhl, Die Gerechtigkeitstheorie des Aristoteles aus der Sicht sozialpsychologischer Gerechtigkeitsforschung, 1992.

[3] Manfred Fuhrmann übersetzt den griechischen Ausdruck φιάλη als Schale. Das ist zwar hinsichtlich der von Aristoteles verwendeten Vokabel korrekter. Dennoch trifft die Übersetzung Gigons als Becher die Sache besser, ist doch das Attribut, mit dem Dionysos bildlich dargestellt wurde, der  κάνθαρος, der zweihenklige Weinbecher.

[4] Poetik, Kap. 21. Übersetzung von Olof Gigon, 1961, S. 55.

Ähnliche Themen

Die Analogie als Entdeckungsverfahren und Gleichmacher

Vorbemerkung: Ein Emeritus ist (fast) aller Pflichten ledig. Er will nicht Karriere machen und muss keine Rücksichten nehmen. Er kann die Themen aufgreifen, wie sie sich ihm gerade aufdrängen. Nichts hält ihn an, eine Sache zu Ende zu führen, es sei denn er selbst. So habe ich mit dem Eintrag vom 27. 4. 2021 eine Reihe zum dem von mir so genannten natural turn begonnen (Die Natur der Sache als Schlüssel zur Interdisziplinarität). Ich kämpfe mit dem Thema, habe es aber nicht aufgegeben. Doch jetzt wollte ich für die Allgemeine Rechtslehre einen kleinen Abschnitt über die Analogie schreiben und musste feststellen, dass ich dazu bisher zu wenig gelesen und mir zu wenig Gedanken gemacht hatte. So habe ich mich zunächst in dieses Thema vertieft. Einen Teil meiner Lesefrüchte will ich hier ausbreiten. Heute zur Einleitung:

I. Analogien überall:

Die Analogie gehört zum Methodenkanon der Jurisprudenz. Robert J. Sternberg, ein Pionier der psychologischen Analyse analogen Denkens, betont die große Bedeutung der Analogiebildung auch für das Recht, und er zitiert dazu Edward H. Levi, einen Klassiker der amerikanischen Jurisprudenz[1]:

»The basic pattern of legal reasoning is reasoning by example. It is reasoning from case to case. It is a three-step process described by the doctrine of precedent in which a proposition descriptive of the first case is made into a rule of law and then applied to a next similar situation. The steps are these: similarity is seen between cases; next the rule of law inherent in the first case is announced; then the rule of law is made applicable to the second case. This is a method of reasoning necessary for the law, but it has characteristics which under other circumstances might be considered imperfections.«

Für das Fallrecht des Common Law scheint die Analogiebildung noch wichtiger zu sein als für Rechtsordnungen, die auf die Analogie  (explizit) nur zur Lückenschließung zugreifen. Aber »Skeptiker«[2] wie Richard Posner sind der Meinung, dass die Analogie als spezifische juristische Denkform und Methode überflüssig sei:

»There is no such thing as an ›analogical argument‹ in any but a rhetorical sense; you need reasons to determine whether one case should be thought relevantly similar to another. Analogies are not reasons; reasons are what is necessary to determine whether a similarity shall be treated as a ground for action, an analogy guiding decision.«[3]

Als Gründe akzeptiert Posner nur Regeln und policy considerations, also offene Zweck-Mittel-Erwägungen. Posner ist der Ansicht, dass für relevant gehaltene Ähnlichkeiten dem Entscheider erst sekundär in den Sinn kommen, und so das Framing im Sinne der gewünschten Entscheidung bestimmen. Die Analogie werde lediglich vorgeschoben, um eine Rechtsfortbildung zu verdecken. Mit dieser Skepsis steht Posner nicht allein.[4] Andere Skeptiker stellen vor allem darauf ab, Analogien bildeten kein Argument eigener Art, sondern dienten nur als Heuristiken zur Auffindung von relevanten Rechtsregeln oder Prinzipien.[5] In diesem Sinne sagt Neil MacCormick:

» … no clear line can be drawn between arguments from principle and from analogy … Analogies only make sense if there are reasons of principle underlying them.«[6]

Solche Skepsis ruft angesichts der großen Wertschätzung, welche die Analogie genießt, nach Überprüfung.

In der Tat, allgemein ist man der Meinung, das Denken in Analogien sei ein universelles Entdeckungs- und Problemlösungsverfahren.

» … theorists and practitioners in all intellectual disciplines, scientific and nonscientific alike, routinely rely on analogical reasoning ….«[7]

Analogiebildung kann auf der Basis vorhandenen Wissens neues Wissen generieren. Analogiebildung leitet an zur Entdeckung bislang unbemerkter Zusammenhänge. In Biologie[8] und in Sprachwissenschaft[9] werden durch Analogieforschung strukturelle Ähnlichkeiten erfasst, die auf gleichartige Funktionen hinweisen. Die Bionik arbeitet mit einer Parallelbetrachtung biologischer und technischer Systeme. Analogiebildung hilft beim Lernen und Erkennen von Zusammenhängen. Daher findet sie großes Interesse in der Lernforschung. Psychologen erklären Kognition als Analogiebildung und testen die Intelligenz ihrer Probanden, indem sie Analogiebildung verlangen. Den Geisteswissenschaften verhelfen Analogien zu (nicht-deduktiven) Argumenten. Designer versprechen sich von Analogien neue Ideen. Und die Entwickler künstlicher Intelligenz modellieren ihre Programme analog zu den Modellen der Kognitionswissenschaft. Die Denkfigur der Analogie wird umgekehrt mit der Computer-Mind-Analogie erklärt. In Konstanz wurde Ähnlichkeit gar zum kulturtheoretischen Paradigma ausgerufen.[10] Aber, so die Fortsetzung des Zitats am Beginn des Absatzes:

»What is distinctive about reasoning by analogy is … that, despite its importance to all disciplines and its special prominence in legal reasoning … , it remains the least well understood and explicated form of reasoning.«

Die juristische und die Argumentationsliteratur sind seither weiter gewachsen, haben aber keine Fortschritte gemacht. Was es zu sagen gibt, hatte schon Ulrich Klug in der 3. Auflage seiner »Juristischen Logik« von 1996 zusammengetragen. Fortschritt ist seither nur noch von der Kognitiven Psychologie und von der Informatik zu erwarten. Auf diesen Weg hat sich, soweit ich sehe, unter den Juristen, bisher nur Lloyd L. Weinreb[11] begeben. Wenn ich dennoch in den folgenden Einträgen weit aushole, so beanspruche ich nicht, etwas grundlegend Neues zu sagen. Die Schreibarbeit dient, wie mehr oder weniger alles auf Rsozblog, in erster Linie der Selbstverständigung. Vorgesehen sind fünfzehn Fortsetzungen, die hier schon einmal vorläufig aufgelistet werden.

II. Dionysos und Ares – Becher und Schild
III.   Analoges Enkodieren
IV. Objekterkennung, Kategorisierung und Ähnlichkeit
V. Erklärende, heuristische und praktische Analogien, Nachahmung als Analogie
VI. Vollständige (kognitive) und normative Analogien
VII. Analogie, Logik und Argumentationstheorie
VIII.  Analogie – induktiv, deduktiv oder originär?
IX. Abduktion
X. Beispiele als Kontrastmittel
XI. Defeasability
XII. Fallvergleich und Distinguishing
XIII. Analogie und »Matter in Question«
XV. Analogie als Prozess
XV. Relevante Ähnlichkeit
XVI. Casus und Regula
XVII. Ist die Analogie als juristische Methode überflüssig?

[Fortsetzung hier.]


[1] Edward H. Levi, An Introduction to Legal Reasoning, University of Chicago Law Review 15, 1948, 501-574, Zitat von S. 501f.

[2] Diesen Ausdruck übernehme ich von Frederick  Schauer, Thinking Like a Lawyer, 2009, 96ff.

[3] Richard A. Posner, Reasoning by Analogy, Cornell Law Review 91, 2006, 761-774, S.768. (Posner rezensiert hier die erste Auflage von Lloyd L. Weinreb, Legal Reason. The Use of Analogy in Legal Argument, von 2006). 

[4] Zu den »Skeptikern« zählen u. a. Larry Alexander, Constrained by Precedent, Southern California Law Review 63, 1989, 1-64; Larry Alexander/Emily Sherwin, Demystifying Legal Reasoning, 2008; Ronald M. Dworkin, In Praise of Theory, Arizona State Law Journal 29, 1997, 353-376, S. 371: »An analogy is a way of stating a conclusion, not a way of reaching one, and theory must do the real work.«; Melvin Aron Eisenberg, The Nature of the Common Law, 1988, S. 83f: »Reasoning by analogy differs from reasoning from precedent and principle only in form. … Cases are not determined in the common law simply by comparing similarities and differences.«; Kent Greenawalt, Law and Objectivity, 1992, S. 200; Peter Westen, On »Confusing Ideas«: Reply, Yale Law Journal 91, 1982, 153-1165, S. 1163: »One can never declare A to be legally similar to B without first formulating the legal rule of treatment by which they are rendered relevantly identical.«; Frederick F. Schauer, Thinking Like a Lawyer. A New Introduction to Legal Reasoning, 2009 (S. 85ff). Auch ich selbst habe in der »Allgemeinen Rechtslehre«  eine gewisse Skepsis gegenüber der Analogie erkennen lassen (Klaus F. Röhl/Hans Christian Röhl, Allgemeine Rechtslehre, 3. Aufl. 2008, S. 633ff).

[5] Bartosz Brożek, Is Analogy a Form of Legal Reasoning?, in: Martin Borowski u. a. (Hg.), Rechtsphilosophie und Grundrechtstheorie, 2017, 291-204.

[6] Neil MacCormick, Legal Reasoning and Legal Theory, 1978, S. 161, 186. 

[7] Scott Brewer, Exemplary Reasoning: Semantics, Pragmatics, and the Rational Force of Legal Argument by Analogy, Harvard Law Review 109, 1996, 923-1028, S. 926.

[8] Franz M. Wuketits, Die sieben Formen der biologischen Ahnlichkeit, Biologie in unserer Zeit 7, 1979, 106-111.

[9] Karl-Heinz Best, Probleme der Analogieforschung, 1973.

[10] Anil Bhatti ua. Ähnlichkeit. Ein kulturtheoretisches Paradigma, Internationales Archiv für Sozialgeschichte der deutschen Literatur (IASL) 36, 2011, 233-247 (Projektvorstellung); Anil Bhatti/Dorothee Kimmich (Hg.), Ähnlichkeit. Ein kulturtheoretisches Paradigma, 2015; Dorothee Kimmich, Ins Ungefähre. Ähnlichkeit und Moderne, Paderborn 2017 (Rezension von Björn Bertrams, Modernes Denken zwischen Differenz und Ähnlichkeit, KulturPoetik 18, 118-122).

[11] Lloyd L. Weinreb, Legal Reason. The Use of Analogy in Legal Argument, 2. Aufl. 2016. In einem Appendix A (S. 149-154) gibt er einen Überblick über einschlägige Arbeiten aus der kognitiven Psychologie, der mir, hätte ich das Buch früher gelesen, viel Recherchearbeit erspart hätte.

Ähnliche Themen

Der Zerfall des Privatrechts

Es gibt nicht länger das eine Privatrecht. Das Privatrecht ist zerfallen in ein Privatrecht für Individuen und ein Geschäftsrecht für Organisationen, insbesondere für die Wirtschaft.[1]

Mit dem Privatrecht verbindet sich die Hoffnung, es könne den Bürgern einen geschützten Raum zur freien Entfaltung ihrer Persönlichkeit, ihrer Fähigkeiten und ihrer Schaffenskraft bieten. Kritisch wird dem Privatrecht deshalb die Konditionierung der Menschen zu egoistischen Individuen oder eine Aufforderung zur Selbstoptimierung vorgehalten. Das Privatrecht bildet zugleich die Basis des Wirtschaftssystems und muss sich deshalb mit der seit Karl Marx andauernden Kapitalismuskritik auseinandersetzen. Nicht zuletzt wird dem Privatrecht vorgehalten, dass es keine Antwort auf Globalisierung und Digitalisierung, auf die Entgrenzung von Natur und Technik sowie auf die Zerstörung von Umwelt und Weltklima habe. Damit steht das Privatrecht unter einem Rechtfertigungszwang, der eine spezifische Theoriediskussion zur Folge hat.

Zeitweise hatte man den Eindruck, als ob das Privatrecht von Sozialkritik und öffentlichem Recht erdrückt würde. Doch dann gab es eine Renaissance der Privatrechtstheorie, erkennbar an einer Flut von einschlägigen Monographien[2] und an den Zivilrechtslehrertagungen von 2015 und 2017[3] .

Den Kern des Privatrechts bildet die Privatautonomie nach Maßgabe der Willenstheorie: Stat pro ratione voluntas. Der Wille = individuelle Selbstbestimmung entscheidet, ohne an Kriterien von Rationalität, Moralität oder Gerechtigkeit gebunden zu sein. Soweit die Privatautonomie reicht, ist die Frage nach der Gerechtigkeit gegenstandslos. Die Privatautonomie leidet anscheinend unter Schwindsucht, so dass selbst die Inhaberin eines Privatrechtslehrstuhls[4] von einem »mystifizierenden Leuchtfeuer« spricht. Aber die Diagnose ist nicht ganz einfach.

In der jungen Bundesrepublik war zunächst eine ordoliberale Privatrechtstheorie bestimmend, die mit den Namen August von Hayek, Franz Böhm, Walter Eucken, Walter Hallstein, Alexander Rüstow und Ernst Joachim Mestmäcker verbunden war. Aber bald wurde, oft unter marxistischen Vorzeichen und mit Beteiligung der Rechtssoziologie, die soziale Frage wieder aufgenommen. Etwa bis zu Jahrtausendwende lag der Schwerpunkt der Kritik am Privatrecht bei den Auswirkungen der Ungleichheit der Akteure auf den Zugang zu privatrechtlich verfügbaren Leistungen und bei der Unausgewogenheit von Transaktionen. Ergebnisse zeigen sich im Verbraucherrecht und im Arbeitsrecht. Die folgenden zwei Jahrzehnte waren durch die Ausrichtung des Privatrechts auf den Kampf gegen Diskriminierungen bestimmt. Heute liegt der Schwerpunkt bei der Einforderung von Nachhaltigkeit und sozialer Verantwortung.

Kritisiert wurde und wird das Fehlen einer sozialen Verantwortung der Privatrechtssubjekte. Auf solche Kritik hat das Recht insoweit reagiert, als es jedenfalls bei wirtschaftlich bedeutenden Unternehmen »Compliance« einfordert. Compliance hat zwei Gesichter. Das eine zeigt sich als gesellschaftliche Verantwortung (CSR = Corporate Social Responsability), das andere in Organisationsanforderungen, die das Recht an Unternehmen stellt und deren Verletzung haftungsrechtliche, ordnungsrechtliche und für die beteiligten Personen auch strafrechtliche Folgen haben kann (Compliance i. e. S.).

§ 289b, 289c sowie §§315b, 315c HGB schreiben daher Kapitalgesellschaften und Konzernen mit mehr als 500 Mitarbeitern vor, eine sogenannte »nichtfinanzielle« Erklärung abzugeben. Darin muss Auskunft gegeben werden über Maßnahmen zum Umweltschutz, zum Arbeitnehmerschutz, zum sozialen Engagement, zur Achtung der Menschenrechte und zur Bekämpfung von Korruption und Bestechung. In der Erklärung ist ebenfalls anzugeben, bis zu welcher Tiefe Lieferanten und Subunternehmer in den Bericht einbezogen werden. Damit wurde 2016 die Corporate Social Responsibility-Richtlinie (2014/95/EU = CSR) umgesetzt. Nach dem Entwurf einer CSR-Richtlinie der EU sollen von 2023 an auch Unternehmen mit mehr als 250 Mitarbeitern Rechenschaft darüber ablegen, wie klimaschonend, umweltfreundlich und sozialverträglich sie wirtschaften und wie gut ihre internen Kontrollen funktionieren. Dazwischen steht das deutsche Lieferkettensorgfaltspflichtengesetz. Aber damit nicht genug. Der beinahe unendliche Komplex öffentlich-rechtlicher Regulierung trifft in erster Linie die Organisationen als Privatrechtssubjekte. Den Privatmann interessiert insoweit nicht viel mehr als die Landesbauordnung und ein paar Umweltvorschriften, wenn er ein Haus bauen oder modernisieren will.

Die rechtlichen Vorkehrungen zur Gewährleistung von Nachhaltigkeit und sozialer Verantwortung treffen die einzelnen Bürger bisher nur indirekt und als moralischer Appell. Eingeschränkt ist die Autonomie des Wirtschaftens, aber nicht die autonome Gestaltung der privaten Lebensführung. Hier darf man sogar diskriminieren. Ein privater Vermieter darf auch gleichgeschlechtliche Paare ablehnen. Man muss nicht zum Arzt gehen, wenn man eine Ärztin bevorzugt, und man darf den tätowierten Friseur meiden. Für die private Lebensführung ist die Selbstbestimmung sogar erweitert, indem etwa mit der Selbstbestimmung über das Lebensende, mit reproduktiver Selbstbestimmung oder mit der Ehe für gleichgeschlechtliche Paare neue Möglichkeiten eröffnet wurden. So betrachtet ist das Privatrecht zweigeteilt in ein Privatrecht für Individuen und ein anderes für Organisationen, insbesondere für die Organisationen der Wirtschaft.

Im Privatrecht für Private hat die Selbstbestimmung eine historisch bisher einmalige Ausdehnung erreicht. Zwar redet alle Welt von der »Dekonstruktion des Subjekts«, und die Privatrechtstheorie setzt dem Gerede wenig entgegen, obwohl die subjektiv-rechtliche Struktur des gesamten Rechts, auch des öffentlichen, am Subjektbegriff hängt. Aber die »Dekonstruktion des Subjekts« fällt wohl doch nicht so grundstürzend aus, wenn am Ende aus der Möglichkeit von Selbstbestimmung und Wahlfreiheit die »Regierung des Selbst« wird.

Tiefgreifender ist der Wandel des Privatrechts der Organisationen. Dieses Recht setzt sich aus zwei großen Blöcken zusammen. Der eine bestimmt die Begegnung zwischen Individuen und Organisationen und beschränkt die Privatautonomie zu Lasten organisierter Akteure. Den anderen Block bildet die Wirtschaftsverfassung. Dazu gehören vor allem das Handelsrecht, das Gesellschafts- und das Wettbewerbsrecht. Für das Privatrecht der Organisationen hat Privatautonomie nicht den engen Bezug zu Freiheit und Selbstbestimmung, sondern sie hat funktionale Bedeutung, weil und soweit sie die materielle Basis für das Marktgeschehen liefert. Insoweit erhält die Privatrechtstheorie die Unterstützung von der ökonomischen Analyse des Rechts. Auch das alte Theorem Friedrich von Hayeks, wonach Privatautonomie das über die Gesellschaft verteilte Wissen mobilisiert, hat noch nicht ausgedient.

Die Trennung zwischen dem privaten Privatrecht und dem Privatrecht der Organisationen ist alles andere als sauber. Sie ist hauptsächlich im Schuldrecht institutionalisiert. Beide Bereiche greifen auf ein gemeinsames Sachenrecht und Immaterialgüterrecht zurück. Sie teilen auch die gesetzlichen Schuldverhältnisse insbesondere aus Delikten. Eine Schnittstelle ist die Berufsausübung. Dennoch bleiben die Schwerpunkte so deutlich, dass die Differenzierung die Aufgaben der Privatrechtstheorie erleichtert. Das gilt sowohl für die Funktionsbeschreibung von Privatautonomie als auch für deren Legitimierung.


[1] Ich habe bei weitem nicht alles gelesen, was in den folgenden Fußnoten angeführt wird. Vermutlich gilt auch hier, dass gründliche Lektüre vor Innovationen schützt, dass also meine These längst irgendwo zu finden ist.

[2] Beinahe im Jahresrhythmus ist ein Dutzend einschlägiger Habilitationsschriften zum Thema entstanden: Stefan Arnold, Vertrag und Verteilung. Die Bedeutung der iustitia distributiva im Vertragsrecht, 2014; Marietta Auer, Der privatrechtliche Diskurs der Moderne, 2014; Tim Florstedt, Recht als Symmetrie 2015; Michael Grünberger, Personale Gleichheit. Der Grundsatz der Gleichbehandlung im Zivilrecht, 2013; Alexander Hellgardt, Regulierung und Privatrecht, 2016; Bernhard Jakl, Handlungshoheit. Die normative Struktur der bestehenden Dogmatik und ihrer Materialisierung im deutschen und europäischen Schuldvertragsrecht 2019; Oliver Mörsdorf, Ungleichbehandlung als Norm 2018; Markus Rehberg, Das Rechtfertigungsprinzip. Eine Vertragstheorie, 2014; Florian Rödl, Gerechtigkeit unter freien Gleichen 2015; Jürgen Oechsler, Gerechtigkeit im modernen Austauschvertrag, 1997; Matthias Wendland, Vertragsfreiheit und Vertragsgerechtigkeit, 2019; Dan Wielsch, Zugangsregeln, 2008.

 

[3] Die Tagungen der Zivilrechtslehrer sind in Sonderausgaben des AcP 216, 2016 und 218, 2018 dokumentiert. Aus einer weiteren Tagung, auf der die Monographien von Dan Wielsch (2008), Marietta Auer (2014) und Florian Rödl (2015) diskutiert wurden, ist der von Grünberger und Jansen hg. Band »Privatrechtstheorie heute« (2017) entstanden. Über die Tagung berichtet Johanna Croon-Gestefeld, Privatrechtstheorie heute, RW 7, 2016, 303-310. 2019 tagten die Deutschen Staatsrechtsleher mit dem Generaltheme »Öffentliches und Privatrecht« (VVDSt Bd. 79, 2020).

 

[4] Anne Röthel, Privatautonomie im Spiegel der Privatrechtsentwicklung: ein mystifizierendes Leuchtfeuer, in: Christian Bumke/Anne Röthel (Hg.), Autonomie im Recht, 2017, 91-116 [Erwiderung von Karl Riesenhuber, Privatautonomie – Rechtsprinzip oder mystifizierendes »Leuchtfeuer«, ZfPW 2018, 352-368]

Ähnliche Themen

Wahlrecht für Tiere?

Zoom machts möglich. Eben habe ich den Vortrag angehört, den der Philosoph Bernd Ladwig im Berliner Seminar Recht im Kontext über die Politische Philosophie der Tierrechte gehalten hat. Der Vortrag hat mich nicht einmal neugierig gemacht. Nun weiß ich jedenfalls, dass ich Ladwigs Buch[1] nicht lesen muss. Aber es ist so dick, dass ich es in meine Literaurhinweise aufnehme.

Ein zentrales Argument Ladwigs: Tiere haben schützenswerte Interessen, denn auch Menschen können kreatürlich, also wie Tiere, leiden. Tiere müssen unter der Zwangsordnung des Rechts leben. Der Rechtsphilosoph Dworkin habe erklärt, eine Zwangsordnung könne nur gerechtfertigt werden, wenn alle ihr Unterworfenen gleich behandelt würden. Also müssten Tiere, wenn es nicht gerade um Fragen der Religionsfreiheit gehe, wie Menschen geschützt werden. Ausbeuterische Nutztierhaltung ist damit passé. Tiere hätten Anspruch auf freie Entfaltung ihrer Tierpersönlichkeit und müssten auch politisch einbezogen werden. Ich ziehe daraus die Konsequenz: Wahlrecht für Tiere!

Der Vortrag gibt mir keinen Anlass, meinen Entwurf des Lehrbuchkapitels über Eigenrechte der Natur zu überarbeiten. Ich stelle den Entwurf nachfolgend ein. Einige Passagen werden den Lesern von Rsozblog bekannt vorkommen.

Eigene Rechte für die Natur?

Literatur: Heike Baranzke, Natur als Subjekt von Eigenrechten – eine sinnvolle Rede?, in: Gerald Hartung/Thomas Kirchhoff (Hg.), Welche Natur brauchen wir?, 2014, 439-460; Klaus Bosselmann, Wendezeit im Umweltrecht. Von der Verrechtlichung der Ökologie zur Ökologisierung  des Rechts, Kritische Justiz 1958, 345-361; ders., Eigene Rechte für die Natur?, Kritische Justiz 1986, 1-22; Sue Donaldson/Will Kymlicka, Zoopolis, A Political Theory of Animal Rights, 2011; William K. Frankena, Ethik und die Umwelt, in: Angelika Krebs (Hg.), Naturethik, 1997, 271-295; Malte-Christian Gruber, Rechtsschutz für nichtmenschliches Leben, 2006; Günter Hager, Das Tier in Ethik und Recht, 2015; Jens Kersten, Das Anthropozän-Konzept, Kontrakt, Komposition oder Konflikt, 2014; Christian Kummer, Pflanzenwürde: Zu einem Scheinargument in der Gentechnikdebatte, Stimmen der Zeit 138, 2013, 21-30; Bernd Ladwig, Politische Philosophie der Tierrechte, 2020; Jörg Luy, Welche Rechte haben Tiere?, Spektrum der Wissenschaft Heft 12/2010, 80-84;Tom Regan, The Case for Animal Rights, 1988; Michael Schlitt, Haben Tiere Rechte? ARSP 78, 1992, 225; Peter Singer, Animal Liberation, 1975; Tom Sparks, Protection of Animals through Human Rights. The Case-Law of the European Court of Human Rights, SSRN Journal, 2018 Katy Sowery, Sentient Beings and Tradable Products: The Curious Constitutional Status of Animals Under Union Law, Common Market Law Review 55, 2018, 55-99; Christopher D. Stone, Umwelt vor Gericht. Die Eigenrechte der Natur, 1987; Holger Zaborowski/Christof A. Stumpf, Menschenwürde versus Würde der Kreatur, RTh 36, 2005, 91-115; Wikipedia, Great Ape Project.

Heft 3/2016 der Zeitschrift »Rechtwissenschaft« ist als Themenheft »Tier und Recht« erschienen. Aus den Beiträgen lässt sich die ältere Literatur rückverfolgen.

Anfang 1988 kam es in der Nordsee zu einem massenhaften Robbensterben. Bilder von angeschwemmten Kadavern beunruhigten Zeitungsleser und Fernsehzuschauer. Umweltschutzverbände machten mit verschiedenen Aktionen auf die zunehmende Verschmutzung der Nordsee aufmerksam. Einige Verbände klagten »im Namen der Robben« – erfolglos – gegen die Einleitung von Schadstoffen in die Nordsee (VG Hamburg, JuS 1989, 240). Als Kuriosität berichtete die JuS auf der Umschlagseite XIII von Heft 6/1992 über einen unveröffentlichten Beschluss des OVG Hamburg, in dem das Gericht übereinstimmend mit der Vorinstanz die erstaunliche Feststellung getroffen hatte, dass die im Rubrum der Entscheidung als »Antragsteller zu I.« aufgeführten »Seehunde der Nordsee« nach dem für die Gerichte maßgeblichen geltenden Recht für ein verwaltungsgerichtliches Verfahren nach § 61 VwGO nicht beteiligungsfähig seien.

So kurios ist die Sache nicht mehr, seitdem die Tierschutzorganisation Peta – vergeblich – Urheberrechte für einen Affen geltend gemacht hat, indem sie in San Franzisko eine Klage im Namen des Affen Naruto von der indonesischen Insel Sulawesi einreichte, mit der für Naruto das Urheberrecht an einem Selfie geltend gemacht wurde. Der britische Fotograf David Slater hatte 2011 eine Serie von Tierbildern aufgenommen. In einem später veröffentlichten Buch fügte er zwei von Naruto aufgenommene Selbstporträts hinzu – die Bilder des grinsenden Affen gingen um die Welt. Slater argumentierte damals, er habe das Urheberrecht an den Fotos, weil er das Stativ aufgebaut habe und dann nur für wenige Minuten weggegangen sei. In dieser Zeit habe der Affe seine Kamera an sich gerissen. Nach Pressemeldungen vom Januar 2016 ist die Klage abgewiesen worden.

Mitte März 2017 meldete die Presse, das Parlament in Wellington/Neuseeland habe dem Whanganui River auf Wunsch der Maori Rechtspersönlichkeit verliehen und ihm einen Vertreter der Maori und einen Vertreter der Regierung als Treuhänder bestellt. Im gleichen Monat entschied der High Court des indischen Bundesstaates Uttarakhand, dass der Ganges und sein wichtigster Nebenfluss, der Yamuna, Rechtspersönlichkeit hätten. Ähnliche Entwicklungen gibt es in Kolumbien und Ekuador. Sie sind inspiriert und legitimiert durch Naturvorstellungen indigener Bevölkerungen, die unter Raubbau und Umweltzerstörung leiden. (Vgl. auchdie engl. Wikipedia-Seite Environmental Personhood.)

Nach geltendem Recht haben Tiere und Pflanzen und Flüsse in Deutschland keine Rechtspersönlichkeit und damit keine eigenen subjektiven Rechte. Sie sind aber durch das objektive Recht geschützt.

Nach § 90a BGB sind Tiere keine Sachen. Doch finden auf Tiere grundsätzlich weiterhin die für Sachen geltenden Vorschriften Anwendung. Nach Art. 141 der bayerischen Verfassung werden Tiere als »Lebewesen und Mitgeschöpfe geachtet und geschützt«. Ähnliche Bestimmungen finden sich auch in den Verfassungen von Berlin, Niedersachsen, Thüringen und des Saarlandes. Im Jahre 2002 wurde der Tierschutz in Art. 20a GG verankert. Bisher hält die Rechtstradition, die die Rechtspersönlichkeit für den Menschen und die von ihm geschaffenen Organisationen reserviert.

Eine breite Tierrechtsbewegung marschiert, um die normative Differenz zwischen Mensch und Tier einzuebnen. Sie erhielt Anschub durch das 1993 erschienene Buch »Menschenrechte für die Großen Menschenaffen – Das Great Ape Projekt« (Originaltitel: The Great Ape Project: Equality Beyond Humanity), das von den Philosophen Paola Cavalieri und Peter Singer herausgegeben wurde. Seither wird in der Diskussion um ein ökologisches Recht nachdrücklich, teilweise sogar militant, die Anerkennung der Rechtsfähigkeit für die Natur oder gar für einzelne Tiere und Pflanzen gefordert. Das wohl jüngste Argument beruft sich auf das Anthropozän-Konzept, das besagt, wir seien in ein Zeitalter eingetreten, in dem nicht länger die Natur, sondern die Menschen die Gestalt der Erde und das Leben auf ihr formten. Als Gegengewicht sollten Teilen der Natur, Tieren und Landschaften, eigene Rechte zugestanden werden.

Die ontologisch-deontologischen Argumentationen lassen sich auf die Frage nach Eigenwert, Würde oder moralischer Qualität, auf die kantische Frage nach dem »Zweck an sich selbst« zuspitzen. Frankena unterscheidet in diesem Zusammenhang acht Ethik-Typen mit weiteren Unterteilungen. Hier genügt es, die üblichen Antworten als »Zentrismen« zu sortieren:

Theozentrismus: Alle Lebewesen zählen kraft ihrer Beziehung zu Gott. Der Theozentrismus ist offen für eine Privilegierung des Menschen, indem er auf die Ebenbildlichkeit des Menschen zu Gott abstellt. Er kann aber auch die Geschöpflichkeit alles Lebendigen und damit die Ehrfurcht vor allem Lebenden betonen. In diesem Sinne ist in Art. 120 II der Schweizerischen Bundesverfassung von der »Würde der Kreatur« die Rede.

Ratiozentrismus und Logozentrismus machen die Frage, ob Wesen um ihrer selbst zählen, von ihrer (potentiellen) Vernunftfähigkeit und ihrem Sprachvermögen abhängig.

Pathozentrismus stellt auf die Empfindungsfähigkeit von Lebewesen ab. Sie zählen moralisch um ihrer selbst willen, wenn sie empfindungsfähig sind und etwas in irgendeiner Form als gut oder schlecht erfahren können.

Biozentrismus: Lebewesen sind moralisch um ihrer selbst zu berücksichtigen, weil sie leben.

Anthropozentrismus: Die Privilegierung des Menschen ist als Anthropozentrismus geläufig. Sie hat eine religiöse und eine ratiozentrische Begründungstradition, die im Begriff der Menschenwürde zusammenfinden.

Die Rechtsprechung nimmt bislang einen anthropozentrischen Standpunkt ein, so auch der EGMR (Spark).

Die Tierschutzorganisation PETA stellte für eine Werbeaktion gegen die Massentierhaltung Bilder aus Tierställen neben Bilder von toten oder lebenden Häftlingen in Konzentrationslagern. Nachdem Berliner Zivilgerichte die Werbeaktion untersagt hatten und Verfassungsbeschwerden erfolglos blieben, entschied auch der EGMR (43481/09) gegen PETA und ließ damit erkennen, dass Tierschutz letztlich ein menschliches Interesse ist.

Die Diskussion um Rechte für die Natur ist zu einem Machtdiskurs im Sinne Foucaults geworden, in dem nicht mehr Argumente, sondern Fußnoten zählen. An die Stelle von Argumenten tritt der Kampfbegriff des Speziezismus, der den Anthropozentrismus in die Nähe von Rassismus und Sexismus rückt. Wer sich äußert, äußert sich in der Regel im Sinne der Tierrechtsbewegung. Die Mehrheit bleibt stumm, bis sie eines Tages nicht mehr reden darf. Es ist daher an der Zeit, Farbe zu bekennen.

Es ist müßig, weiter über ontologische Differenzen zwischen Mensch und Tier zu streiten. Aus naturwissenschaftlicher Sicht ist der Mensch ein höheres Tier. Es lohnt sich auch kaum, darüber zu diskutieren, ob die traditionelle Auffassung, der Mensch unterscheide sich vom Tier durch seinen Vernunftgebrauch, haltbar ist. Dadurch verlagert sich der Streit nur auf den ohnehin problematischen Vernunftbegriff. Man kann Tieren weder Kognitionen noch Emotionen absprechen.

Kaum eine empirische Grenze ist so scharf, wie diejenige zwischen Mensch und Nichtmensch. Bisher ist jedenfalls kein Fall bekannt, indem die Eigenschaft eines Lebewesens als Mensch oder Nichtmensch zweifelhaft gewesen wäre. Die Artgrenze zwischen Mensch und Tier hat seit unvordenklicher Zeit gehalten. Aber auch sie ist grundsätzlich nicht evolutionsfest. Ganz gleich ob es eine fundamentale Grenze zwischen Mensch und Tier gibt, so kann man doch eine solche Grenze ziehen, wenn man der Ansicht ist, dass die Menschenwürde der oberste Wert bleiben soll. Die große Errungenschaft der Grund- und Menschenrechte verliert durch die Proliferation ins Tier- oder gar ins Pflanzenreich an Kraft. Solange Milliarden Menschen nicht in Frieden und Freiheit leben, solange sie hungern, leiden und Ungleichheit ertragen müssen, gilt es, die Grund- und Menschenrechte auf diese Menschen zu konzentrieren. Naturschutz und Tierschutz sind diesem Ziel untergeordnet.

Juristen könnten – besser noch als Theologen – wissen, dass sich nicht das dominium terrae der biblischen Schöpfungsgeschichte, sondern allenfalls eine bestimmte Auslegungstradition für die ökologische Krise der Welt verantwortlich machen lässt. Die Einordnung des gegenwärtigen Erdzeitalters als Anthropozän bestätigt das dominium terrae nicht als Imperativ, sondern als Faktum. Wenn darauf überhaupt noch eine Reaktion möglich, dann nur als solche von Menschen, die den Schaden, den sie sie angerichtet haben, zu begrenzen und vielleicht ein wenig zu reparieren suchen. Hier sind allein Menschen als Pflichtsubjekte gefordert. Deshalb sollten sie auch als Rechtsubjekte privilegiert bleiben. Das ist das Argument von der Rechte-Pflichten-Symmetrie (Baranzke S. 452).

Da hilft es nicht – etwa mit Hilfe des Ethnologen Philippe Descola (Jenseits von Natur und Kultur, 2011) – an animistische Stammesgesellschaften zu erinnern, für die Tiere und Pflanzen beseelt sind und über ein soziales Leben verfügen. Man kann dann die Weltsicht der von Descola beobachteten Jívora-Indianer mit dem Programm des Postmodernismus zu einer der modernen Weltsicht gleichberechtigten Wahrheit erklären. Das ändert den Lauf der Welt nicht mehr.

Solche Privilegierung des Menschen muss nicht deontologisch begründet werden. Wir ziehen einen bescheidenen Utilitarismus vor; bescheiden, weil es nicht um das größte Glück, sondern nur um die Ausräumung großen Unglücks geht. Allerdings ist der klassische Utilitarismus anthropozentrisch; Ausgangspunkt für die Beurteilung jeder Entscheidung ist das Wohl und Wehe der betroffenen Menschen. Deshalb müssen Naturschutz und Tierschutz nicht zurückstehen. Ein menschenzentrierter Utilitarismus bedenkt auch das Wohl der nachfolgenden Generationen und inkorporiert damit das Prinzip der Nachhaltigkeit, das ohne intensiven Tier- und Naturschutz nicht zu halten ist. Damit wird die Frage, welche Schmerzen, Leiden oder Schäden Tieren zugefügt werden und wann sie getötet werden dürfen, zu einer Frage der Verhältnismäßigkeit, bei deren Beantwortung das Wohl von Menschen ein deutliches Übergewicht erhält. Es wiegt so schwer, dass im Interesse menschlichen Wohlergehens selbst die Tötung von Tieren zulässig ist. Alles andere wäre Heuchelei.

Wollte man der Natur Würde im Rechtssinne zuerkennen, so wären die materiell-rechtlichen Konsequenzen begrenzt. Jede gewollte oder auch nur vermeidbare Schädigung von Tieren und Pflanzen wäre danach unmoralisch und müsste wohl auch rechtlich verboten sein. Die (indische) Religion des Jainismus verwirft jede Tötung von Tieren. So weit gehen nicht einmal westliche Vegetarier. Die Idee, dass man nicht bloß Tiere, sondern auch Pflanzen nicht mehr essen und aus ihnen keine Rohstoffe mehr gewinnen dürfe, bedeutete das Ende der Menschheit. Tierwürde und Pflanzenwürde könnten nie in dem Sinne absolut geschützt werden wie die Menschenwürde.

Die Allgemeine Rechtslehre kann zu dieser Auseinandersetzung dadurch beitragen, dass sie feststellt: Rechtstechnisch ist es überhaupt kein Problem, bestimmten Teilen der belebten oder unbelebten Natur Rechtsfähigkeit zu verleihen und ihnen in der Folge auch subjektive Rechte zuzuerkennen. Natürlich muss dann durch eine Vertretungsregelung die Handlungsfähigkeit der zur Rechtsperson erhobenen Gebilde hergestellt werden. Deshalb wären es im Ergebnis doch Menschen, die die »Rechte der Natur« wahrnehmen müssten. Auf Dauer schließt diese Sichtweise nicht aus, dass auch Tieren Rechte zugestanden werden. Es handelt sich, wie gesagt, um ein rechtstechnisches Problem. Wenn dem Menschen durch Tierrechte besser gedient wäre als ohne, sollte man sie einrichten. Aber es wären Rechte zweiter Klasse.

Ohnehin werden Tierrechte bald nur noch einen Nebenschauplatz bilden. Die neuen Möglichkeiten zu einer Genveränderung mittels CRISPR/Cas9 und die heraufziehende künstliche Intelligenz bilden die Zukunftsfront, an der es die Menschlichkeit zu verteidigen gilt und die erst recht einen anthropozentrischen Standpunkt fordert.


[1] Bernd Ladwig, Politische Philosophie der Tierrechte, 2020 (Suhrkamp).

Ähnliche Themen

Abstrakt und konkret

Der Gegensatz von Form und Inhalt, von dem im letzten Eintrag die Rede war, hängt eng mit dem Begriffspaar abstrakt und konkret zusammen. Inhalte müssen eine Form annehmen, um transportierbar zu werden. Damit werden sie von konkreten Situationen abstrahiert.

Nur unmittelbares Erleben ist konkret. Das Erleben ereignet sich in einer Situation, das heißt, in einer mehr oder weniger einmaligen Konstellation von Leib und Materie, Raum und Zeit. Jede Mitteilung = Kommunikation über das Erleben ist eine Darstellung (Repräsentation) in einem Medium (Wort, Bild, Schrift) und damit immer schon eine Abstraktion. Ein berühmtes Beispiel von Gilbert Ryle[1] ist der Stadtplan. Auch ein geübter Kartenleser gewinnt nicht die gleiche Sicherheit der Orientierung wie der Einwohner, der die Straßen kennt. Das gilt auch für andere Darstellungen. Die Aussage eines Zeugen ist eine Abstraktion von dem, was der Zeuge erlebt hat. Das Protokoll der Zeugenaussage ist noch einmal eine Abstraktion der Abstraktion. Allerdings gibt es unterschiedliche Grade der Abstraktion von Darstellungen. Bilder wirken konkreter als Texte, bleiben aber trotzdem abstrakt im Verhältnis zu dem, was sie zeigen. Das gilt selbst für die multimediale Kommunikation, wie sie in Corona-Zeiten üblich geworden ist. Die Videokonferenz kann die Präsenzveranstaltung nicht wirklich ersetzen.

Oft wird konkret mit anschaulich gleichgesetzt. Das ist jedoch zu einfach. Die als Justitia allegorisch dargestellte Idee der Gerechtigkeit mag anschaulich sein, der Gedanke bleibt dennoch abstrakt. Allegorien und Metaphern sind nur pseudokonkret, denn sie erwecken den Anschein des unmittelbar sinnlich Wahrnehmbaren.

Der Vergleich von Bildern und Sprache zeigt den Weg zu den Begriffen. Der Weg führt über die Dimension intensional – extensional. Realistische Bilder ohne Kontext sind wie Namen, das heißt, sie identifizieren Gegenstände und haben damit extensionale Bedeutung. Solche isolierten Bilder können nur bezeichnen und aufzählen. Sprache dagegen kann von den konkreten Gegenständen absehen, indem sie intensional das Gemeinte repräsentiert. Aus der Zugspitze, dem Matterhorn und dem Montblanc werden Berge. Aus Peter, Emil, Gerda und Kathrin werden Menschen. Sprache ist abstrakt in dem Sinne, dass sie viele mögliche bildliche Darstellungen zulässt. Realistische Bilder bleiben (relativ) konkret. Ein Bild kann nicht »die Berge« oder »die Menschen« zeigen – wiewohl Künstler das immer wieder versuchen – , sondern nur bestimmte Berge oder Menschen. Worte fassen zusammen, was Bilder trennen.

»All that words can deal with are similarities (not differences).«[2]

Abstraktion führt zur Begriffsbildung, Begriffsbildung setzt Abstraktion voraus, denn Begriffe sind Namen für eine Klasse von Gegenständen. Sie werden gebildet, um einzelne Objekte einer Klasse = Gattung zuzuordnen oder als Element der Klasse wiederzuerkennen. Damit kehren unter dem Aspekt der Abstraktion alle Gesichtspunkte wieder, die mit den Begriffen verbunden sind. Auch wenn alle Begriffe insofern abstrakt sind, als sie vom Einzelfall absehen, so sind sie doch darauf angelegt, bekannte und unbekannte Einzelfälle wieder­zuerkennen.

Begriffe werden gewöhnlich durch Worte repräsentiert. Nackte Symbole, wie sie in der formalen Logik üblich sind, können sowohl (als Namen) für konkrete Gegenstände als auch für Begriffe stehen.

Wiewohl Begriffe insofern abstrakt sind, als sie nicht Individuuen benennen, sondern eine Klasse von Gegenständen, gibt es doch auch insoweit unterschiedliche Grade der Abstraktion. Begriffe, die, wenn auch verallgemeinernd, Sinneswahrnehmungen oder wahrnehmbare Objekte bezeichnen, bleiben anschaulich, ganz gleich ob von Autos oder von Wolken die Rede ist. Eine höhere Stufe wird erreicht, wenn die Sprache Relationen zwischen anschaulichen Gegenständen benennt und damit Begriffe schafft, die nicht mehr auf Anschauliches verweisen. Das beginnt mit so einfachen Begriffen wie Verwandtschaft, Besitz oder Eigentum und endet noch nicht mit Forderung, Schaden oder Erfüllung. Eine weitere Steigerung der Abstraktion besteht darin, abstrakte Relationen zwischen verschiedenen Abstracta zu benennen (z. B. »eine strukturelle Kopplung zwischen dem Rechtssystem und dem politischen System«).

Schlichtes Denken ist konkret. Es verbindet Eigenschaften mit einem Gegenstand, redet also nicht von Größe an sich, sondern von großen Bäumen oder Bergen, nicht von Klugheit schlechthin, sondern von klugen Füchsen oder Menschen, nicht von der Güte als solcher, sondern von der Güte einer Mutter oder der Güte Gottes. Früher war man deshalb der Ansicht, Abstraktion vollziehe sich als Verselbständigung von Eigenschaften anschaulicher Gegenstände. Als Beispiel galt etwa die Abstraktion des Weißen als Eigenschaft aller weißen Gegenstände, vor allem aber die Abstraktion von Zahlen von den gezählten Objekten. Bei der üblichen intensionalen Definition war genus proximum dann der »Gegenstand«, differentia specifica die Eigenschaft, der Schimmel also ein weißes Pferd. Aber was wir Gegenstand nennen und was uns als Eigenschaft erscheint, ist ein bloßes Konstrukt unseres Kognitionssystems. Diese Sichtweise düfte auf einem ontologischen Vorurteil beruhen, denn es gibt keinen Grund für die Annahme, dass ein Pferd wesentlicher sei als eine Farbe oder, abstrakt formuliert, die Eigenschaft wesentlicher als der Gegenstand. Aber es bleibt dabei, das sie Verselbständiung von Eigenschaften eine Abstraktion bedeutet.

Diese Form der Abstraktion äußert sich sprachlich durch Substantivierung. An die Stelle von Prädikaten, die bis dahin stets mit konkreten Objekten zusammengedacht wurden, treten Substantive, die anscheinend keine Ergänzung mehr durch einen Objektbereich nötig haben. Noch Aristoteles behandelte die Gerechtigkeit als eine Tugend, d.h. als eine Eigenschaft konkreter Menschen. Das war jedoch ein Rückfall in der Entwicklung zum abstrakten Denken, die in der griechischen Philosophie längst stattgefunden hatte. Erst Abstraktion und die mit ihr verbundene Substantivierung machten Platons Ideenlehre möglich, in der die von aller Substanz befreite Idee des Guten den höchsten Platz einnimmt.

Die Abstraktionen der Philosophen (und Juristen) haben sich im europäischen Kulturkreis weit bis in die Alltagssprache hinein ausgebreitet. Wie selbstverständlich reden wir von Sein oder Nichtsein, Wesen und Struktur, Idee und Realität und nicht zuletzt auch vom Recht. Die Reihe solcher Substantivierungen ist unerschöpflich. Es ist schwer, sich vorzustellen, wie wir ohne sie reden und denken würden. Aber es ist sicher, dass die abstrahierende Substantivierung in viele künstliche Probleme führt. Vielleicht zählt dazu auch der Kampf der Werte im Wertehimmel. Oft ist es hilfreich, den Prozess des Weglassens von konkreten Details umzukehren, wenn sich die Probleme anders nicht lösen lassen. Wenn Meinungsfreiheit und Persönlichkeitsrechte im Streit liegen, so kann man beides gar nicht direkt gegeneinander abwägen, sondern muss im Prozess der Abstraktion eine oder mehrere Stufen zurückgehen, um vielleicht Literatur gegen Jugendschutz oder noch konkreter das Werk eines bestimmten Autors gegen die Persönlichkeit des darin verunglimpften Helden ins Auge zu fassen.

Das Recht hat sich mit Hilfe der Sprache seine eigenen Abstraktionen geschaffen. Der wichtigste Abstraktionsmodus des Rechts ist die Formulierung allgemeiner Regeln, die nur wenige Kriterien für relevant erklären und von den vielen Besonderheiten, die jeder konkrete Fall mit sich bringt, absehen. Damit wären wir wieder bei dem allgemeinen Gesetz als Rechtsform.

Die Abstraktion wird immer wieder als Krankheit des Rechts angesprochen. Sie bildet aber ein allgemeineres Problem. In den Geistes- und Sozialwissenschaften besteht eine Tendenz, allgemeinere Theorien zugunsten immer weiter gehender Differenzierungen (Nuancen) zurückzuweisen. So werden immer detailliertere empirische Beschreibungen verlangt und sie werden von einem nicht endenwollenden Ausbau der Begriffssysteme begleitet, die immer weitere Sachverhalte abdecken sollen.[3] Juristen fühlen sich an die Forderung nach der Berücksichtigung aller Umstände des Einzelfalls erinnert. Es bedarf eines langen Trainings, um die in ihrer Konkretheit unendlich differenzierte Wirklichkeit in wissenschaftlichen Texten zu repräsentieren, das heißt, sie in (abstrakte) Theorie zu bringen. Theorie arbeitet notwendig mit Verallgemeinerungen, die immer zugleich eine Abstraktion darstellen. Es bedarf des Selbstbewusstseins erfahrener Juristen, um dem differenzierten Theoriemosaik der philosophisch und sozialwissenschaftlich inspirierten Rechtstheorie einigen Gewinn abzuringen.


[1] Abstractions, Dialogue (Canadian Philosophical Review) 1, 1962, 5-16.

[2] William M. Ivins, Jr., Prints and Visual Communication, 8. Aufl. 1992, S. 139.

[3] Kieran Healy, Fuck Nuance, Sociological Theory 35, 2017, 118-127.

Ähnliche Themen

Form und Inhalt als Kaskade

Die Welt begreifen wir – im wahren Sinne des Wortes – mit Begriffspaaren wie Subjekt und Objekt, Sein und Sollen, Natur und Kultur. Solche Gegensätze (Antonyme) sind selbst dann hilfreich, wenn wir sie am Ende als falsche Dichotomien verwerfen. Zu den prominenten Antonymen gehört das Begriffspaar Form und Inhalt. Die Jurisprudenz nutzte es schon immer. In neuerer Zeit ist das Begriffspaar in der Medientheorie relevant geworden. Dafür steht Marshall McLuhans sprichwörtlich gewordenes Motto »the medium is the message«. Nun hat die Rechtsästhetik die Form aufgegriffen. Der neue von Eva Schürmann und Levno von Plato herausgegebene Sammelband[1] beginnt mit Beiträgen von Getrtrude Lübbe-Wolff[2] und Dietmar von der Pfordten[3], die in einem Kapitel »Recht und Form« zusammengefasst sind. Es werden Beispiele von Formen angeführt, in denen das Recht sich darstellt. Der Gegenbegriff bleibt aber im Dunkeln. Das ist jetzt nicht kritisch gemeint.[4] Ich habe die erfreulich kurzen Beiträge gerne und mit Gewinn gelesen. Sie waren von vornherein nicht darauf zugeschnitten, den Formbegriff näher zu bestimmen und einen Gegenbegriff festzulegen. Von der Pfordten verweist immerhin auf die »duale Beziehung von Form und Stoff (Materie, Inhalt)«, die »seit der Antike als Verhältnis von morphe und hyle bekannt« sei. Für sein Thema kommt es jedoch nur darauf an, dass die Form des Rechts »zumindest zeitweilig auch sinnlich wahrnehmbar ist«.[5] Erfreulich ist auch, dass die genannten Autoren ohne Luhmann auskommen. Luhmanns Formbegriff hätte sie auf eine schiefe Bahn gelenkt.

Ich habe die Lektüre der angeführten Texte zum Anlass genommen, das Begriffspaar Form und Inhalt von Luhmann zu befreien. Meiner Bewunderung für Luhmann tut das keinen Abbruch. Mir kommt es darauf an zu zeigen oder jedenfalls zu behaupten, dass man für den juristischen Bedarf keine fundamentalphilosophischen Probleme lösen muss, wie es Luhmann mit dem Formbegriff unternimmt. (Ich zitiere im Folgenden »Die Gesellschaft der Gesellschaft«, 1997, als GdG mit Seitenzahl.)

Vorab: Auch Stoff und Materie bilden Gegenbegriffe zur Form, passen aber besser auf physische Inhalte. Zwischen formal, formell und förmlich bzw. materiell und material besteht kein sachlicher Unterschied, wiewohl formell und förmlich eine schwach negative Konnotation mit sich führen. Die Verwendung der einen oder anderen Ausdrucksweise ist in erster Linie Sache der sprachlichen Gewohnheit.

Für das Recht gibt es drei große Themenkreise, die auf den Gegensatz von Form und Inhalt zurückführen, nämlich

das Verhältnis von Begriff und Bedeutung,
das allgemeine Gesetz als Form des Rechts,
die Relativität von Form und Inhalt[6].

Der Begriff ist die Form des Gedankens. Es liegt nahe, sich die Begriffe wie ein Gefäß vorzustellen, das für einige Inhalte geeignet ist, andere aber nicht aufnehmen kann. Wie generell bei Metaphern darf man dieses Bild aber nicht strapazieren. Den Inhalt eines Bechers kann man ausschütten. Gedankliche Inhalte (Bedeutung) lassen sich aber nicht von den Formen trennen, in denen sie gefasst werden. Vielmehr verschmelzen in den Begriffen Form und Inhalt.

Juristen haben keine Schwierigkeit, sich die Begriffsbildung (mit Luhmann und George Spencer Brown) als eine Gedankenoperation vorzustellen, mit der eine Unterscheidung getroffen wird. Jede Bezeichnung oder Benennung, Definition oder Feststellung eines Gegenstandes ist eine Unterscheidung. Die Unterscheidung zieht eine Grenze mit dem Ergebnis mindestens einer Zweiheit, nämlich dem Ein- oder Ausgegrenzten und dem oder den Anderen.

»Jede Seite der Form ist die andere Seite der anderen Seite. Keine Seite ist etwas für sich selbst.« (GdG 60f)

Klar: Jeder Begriff hat (nur?) zwei Seiten. Aber die Schwierigkeiten folgen auf dem Fuße.

Erstens: Gibt es schon vor der Unterscheidung einen Unterschied oder macht erst die Unterscheidung die Differenz? Anders formuliert: Gibt es unabhängig von der »Operation des Unterscheidens« etwas zu beobachten, auf das die Unterscheidung »positiv oder negativ referiert« (GdG 459)? Ist also die Begriffsbildung durch Unterscheidung konstruktivistisch zu verstehen oder trifft sie auf eine Welt der Dinge oder Tatsachen? Der Jurist optiert für Letzteres, mag er sich damit auch als alteuropäischer Ontologe (GdG 893ff) outen. Er folgt einer Philosophie des Als-ob (Vaihinger), denn er hat noch keine deontologisierende Konstruktion beobachtet, die eine Tat ungeschehen gemacht hätte.

Zweitens: Die Unterscheidung fordert eine Bezeichnung heraus, durch die sie zum Begriff wird. Lassen sich Unterscheidung und Bezeichnung trennen oder fallen sie in eins? Für Luhmann bildet beides »eine einzige Operation; denn man kann nichts bezeichnen, was man nicht, indem man dies tut, unterscheidet, so wie das Unterscheiden seinen Sinn nur darin erfüllt, dass es zur Bezeichnung der einen oder der anderen Seite dient (aber eben nicht beider Seiten)« (GdG 69). Der Jurist lässt sich an dieser Stelle von der Vokabel »Bezeichnen« täuschen, indem er darunter eine Namensgebung versteht. Die Täuschung ist in den Definitionen angelegt, mit denen George Spencer Brown sein Formenkalkül beginnt:

»This is to say, a distinction is drawn by arranging a boundary with separate sides so that a point on one side cannot reach the other side without crossing the boundary. For example, in a plane space a circle draws a distinction.

Once a distinction is drawn, the spaces, states, or contents on each side of the boundary, being distinct, can be indicated.

There can be no distinction without motive, and there can be no motive unless contents are seen to differ in value.

If a content is of value, a name can be taken to indicate this value.«[7]

Beispiel für eine Unterscheidung ist der auf eine Fläche gezeichnete Kreis. Die Unterscheidung zieht eine Grenze zwischen Kreis und Umkreis. Auf beiden Seiten der Grenze gibt es Inhalte (spaces, states or contents), auf die man zeigen und denen man einen Namen geben kann. Mit der Unterscheidung sind sogleich schon beide Seiten da. Deshalb muss es wohl bei der Einheit des Vorgangs von Unterscheiden und Bezeichnen bleiben.

Allerdings fehlt dem Juristen noch die Unterscheidung zwischen Namensgebung und Begriffsbildung. Im ersteren Fall geht es um die bloße Identifizierung eines Etwas, dass mit einem Indikator oder mit einem Eigennamen gekennzeichnet wird. Begriffsbildung unterscheidet jedoch nicht zwischen Individuen, sondern zwischen Gattungen. Diese Unterscheidung der Art der Unterscheidung lässt sich am besten mit den Begriffen konkret und abstrakt einführen, aber nicht jetzt und hier. Luhmanns Beispiele für Unterscheidungen, die ich noch zitieren werde, gehen wohl davon aus, dass die »Form der Unterscheidung« auf Begriffsbildung angelegt ist.

Drittens: Ist die Unterscheidung zunächst reine Form ohne Inhalt? Warum wird die erste Grenze gezogen? Rein spielerisch, einfach nur so, um zu sehen, was daraus wird? Ist die erste Unterscheidung also leer? Oder zieht der Beobachter die Grenze, weil er diesseits oder jenseits der Grenze unterschiedliche Inhalte erwartet? Kann man überhaupt eine leere Unterscheidung treffen? Eine leere Anfangsunterscheidung erwartet man vielleicht von einem Mathematiker. Aber Spencer Brown definiert, es könne keine motivlose Unterscheidung geben, ein Satz freilich, mit dem seine Interpreten Probleme haben. De facto gibt es keine Unterscheidung ohne Inhalt. Aber man kann, vielleicht »analytisch« vom Inhalt abstrahieren und erhält dann das Theoriemodell einer Unterscheidung ohne Inhalt. Das hilft aber nicht viel weiter, denn sofort schließt sich die Frage an:

Viertens: Wie kommt die Unterscheidung zu ihrem Inhalt? Wie gesagt: Die praktisch vollzogene Unterscheidung hat immer schon einen Inhalt, denn der Beobachter hat ein Motiv, und das bedeutet, er muss schon vor der Unterscheidung einen Unterschied im Sinn gehabt haben, usw. »Also ist die Einführung jeder Unterscheidung selbst schon eine Unterscheidung.«[8] Damit stellt sich die Frage des Anfangs. Das ist ein Problem der Fundamentalphilosophie, wie es Kant mit den Antinomien von Raum, Zeit und Kausalität verhandelt hat. Luhmann litt an einem horror infiniti; er fürchtete den infiniten Regress. Als Sedativum dient ihm die Selbstreferenz mit den daraus folgenden Paradoxien. Zugleich schätzte er die Philosophie Husserls, die auf eine »originär gebende Anschauung« als Erfahrung noch vor jeder begrifflichen Verarbeitung baute.[9] Der Jurist gibt sich damit zufrieden, dass das Bewusstsein »immer schon« darauf angelegt ist, Unterschiede zu finden.

Es bleiben zwei weitere Fragen an die Form der Unterscheidung, die Frage nämlich, ob Unterscheidungen grundsätzlich bipolar oder gar dichotomisch ausfallen und ferner, ob die Begriffsbildung qua Unterscheidung asymmetrisch angelegt ist. Dazu ein anderes Mal. Zunächst geht es weiter in der Kaskade der Formen.

Das Symbol ist die Form des Begriffs. Damit die Bezeichnung kommuniziert werden kann, muss sie als Symbol materialisiert werden. Das geschieht durch Lautsprache oder Schrift, Geste oder Bild. Hier taucht das zweite Frage wieder auf, die Frage nämlich, ob eine gedankliche Begriffsbildung ohne Vorgriff auf ihre symbolische Umsetzung möglich ist. Philosophen und Mathematiker mögen – wie Luhmann, GdG 917 Fn. 103 – die Möglichkeit eines allem Symbolischen vorgelagerten Bewusstseinsprozesses bedenken. Für den Juristen verbietet sich eine Privatsprache.

Das Medium ist die Form des Symbols. Die Symbole werden erneut in Formen transformiert, die als Medien geläufig sind. Dazu werden die primären Materialisierungen ihrerseits gespeichert, kopiert oder vervielfältigt. So gibt es analog zu Sprache und Metasprache Formen und Metaformen. Anders formuliert: Der Inhalt einer Form wird wieder zur Form, und so wächst eine Kaskade von Form und Inhalt.

Luhmann verwendet einen anderen Medienbegriff (GdG 190ff).[10] Was soeben Medium genannt wurde, sind für ihn nur die trivialen Verbreitungs- und Speichermedien. Die eigentlichen Medien findet er in den »symbolisch generalisierten Kommunikationsmedien« wie Wahrheit und Geld, Liebe und Kunst, Gewalt und Recht, auch Erfolgsmedien genannt, weil sie Kommunikationen zum Erfolg verhelfen (GdG 203). Diese Medien lassen sich nicht beobachten, jedenfalls nicht direkt, sondern nur, wenn sie in einem Verbreitungsmedium Ausdruck gefunden haben. Die Aktualisierung von »Medien« durch Kommunikation bezeichnet Luhmann wiederum als Form.[11] Luhmanns Medienbegriff kann dahinstehen. Hier geht es um die Kaskade von Form und Inhalt als Gegenmodell zum »Wiedereintritt der Form in die Form«.

»Auch die Unterscheidung von Medium und Form [ist] eine Form. Die Unterscheidung impliziert sich selbst« (GdG 198).

»Abstrakt gesehen handelt es sich dabei um ein ›re-entry‹ einer Unterscheidung in das durch sie selbst Unterschiedene. Die Differenz System/Umwelt kommt zweimal vor: als durch das System produzierter Unterschied und als im System beobachteter Unterschied.« (GdG 45)

Für Luhmann ist jede Unterscheidung von vornherein »paradoxkonstituiert«, weil beide Seiten einander wechselseitig voraussetzen. Ergibt sich die Notwendigkeit, die Bedeutung des bezeichneten Gegenstands näher zu bestimmen, so greift man auf das Ausgeschlossene zurück. Konventionell sucht man dazu nach dem oder einem Gegenteil. Im Grunde ist es trivial, dass Begriffe aus Gegenbegriffen Bedeutung gewinnen. Wenn sich die Bedeutung des bezeichneten Gegenstands vor dem Hintergrund von etwas Anderem klärt, dann mag es so scheinen, als ob im Bezeichneten das Ausgeschlossene und damit die Unterscheidung in das Unterschiedene wiedereintritt. Luhmann erklärt deshalb die Unterscheidung und damit die Begriffsbildung zueinem selbstreferentiellen Vorgang und die Anstrengungen zur Begriffsklärung als Paradoxieentfaltung. Er stilisiert das Hin und Her zwischen Teil und Ganzem zum Wiedereintritt der Form in die Form und adelt es mit Hilfe von Spencer Brown (dort S. 56ff) zum re-entry. Aber damit ist nichts gewonnen, was sich nicht ganz konventionell als Begriffsbestimmung mit Hilfe von Gegensätzen und auch Ähnlichkeiten beschreiben ließe. Der Anschein der Selbstreferentialität entsteht durch eine simple Äquivokation, dadurch nämlich, dass Luhmann die »Unterscheidung« einmal als statisch als Differenz und ein anderes Mal prozessual für die Operation des Unterscheidens verwendet. Ähnlich liegt es mit der Doppelbedeutung des »cross« bei Spencer-Brown einmal als (Kreuz-)Zeichen und einmal als Überquerung (crossing).

Luhmanns Fundamentalproblem besteht darin, dass er sich auch noch selbst beim Beobachten beobachten möchte. Anstatt dafür einen Schritt zurückzutreten, um Distanz zu gewinnen, springt er selbst mit einem Salto (re-entry) ins Getümmel (GdG 50f). Der Reinfall des Beobachters in das Feld wird zum Wiedereintritt der Form in die Form und erzeugt die Paradoxie des Beobachtens (GdG 57 + 1081). Das ist nicht das Problem des Juristen. Der denkt an die von Luhmann stets nur abschätzig zitierte Typentheorie (z. B. GdG 58) und zieht einfach eine Instanz weiter.[12]

Die Medien, mit denen das Recht kommuniziert und gespeichert wird, bilden die (äüßere) Form des Rechts. Das moderne Recht ist durchgehend schriftlich fixiert. Die Schrift ist selbst schon ein Speicher und wiederum Voraussetzung auch für die elektronische Speicherung und Kommunikation. Mündlichkeit oder gar nur in der Praxis impliziertes Recht haben als Form in diesem äußeren Sinne nur sekundäre Bedeutung. Für die äußere Form fehlt es an einem spezifischen Gegenbegriff für die gedanklichen Inhalte. Gegenbegriff ist das Recht schlechthin. An dieser Stufe der Formenkaskade setzt von der Pfordten in seinem eingangs genannten Beitrag an, indem er versucht, das Recht durch Formelemente von anderen Ordnungen abzugrenzen.

An dieser Stelle kann man kurz innehalten und nach dem Unterschied von Form und Format fragen. Format ist auf jeden Fall spezieller als Form. Format hat in der Regel eine quantitative Dimension und ist oft sehr präzise definiert.

Die Form des positiven Rechts ist Allgemeinheit. Juristen unterscheiden traditionell zwischen formellem und materiellem Recht. Das materielle Recht ist das Sachrecht, das die Rechtsverhältnisse inhaltlich ordnet. Das formelle Recht ist das Verfahrensrecht, das der Feststellung und Durchsetzung des Sachrechts dient. Die Medien als äußere Form des Rechts dienen zur Darstellung des einen wie des anderen. Es gibt also auch eine Form des formellen Rechts. Die Inhalte des materiellen wie des formellen Rechts haben ihrerseits eine Form, nämlich die Form des allgemeinen Gesetzes. Damit ist noch nicht das (förmliche) Parlamentsgesetz gemeint, sondern das Design des Rechts schlechthin. Das Parlamentsgesetz könnte auch einmal ein Einzelfallgesetz sein. Gemeint ist die Allgemeinheit des Gesetzes wie sie den Epigonen Platons [»Politikos« 294a–d] Gegenstand der Rechtskritik war und ist. Aktuell macht sich in der Rechtskritik ein Kult des Singulären breit.[13]

Das (allgemeine) Gesetz nimmt als Verfassung Form an. Ab hier entspricht die Kaskade dem, was als Stufenbau der Rechtsordnung geläufig ist. Die Verfassung hat wiederum nachgeordnete Formen des Rechtssetzung zum Inhalt.

Förmliche Rechtsgesetze stellen Handlungsformen für Justiz, Verwaltung und Privatrechtsverkehr bereit. Der Gegensatz zwischen materiellem und formellem Recht im Sinne von Verfahrensrecht zeigt sich eigentlich erst auf diese Ebene.

Die rechtlich geordneten Handlungsformen lassen Spielraum für ihre Ausfüllung. Hier ist viel Tradition am Werk. Sie prägt den Stil von Gesetzen und Verträgen, Gerichtsurteilen oder juristischen Gutachten. An dieser Stufe der Formenkaskade setzt Lübbe-Wolff in ihrem eingangs erwähnten Beitrag an, wenn sie »Stil und Substanz« von Verfassungsgerichtsurteilen vorstellt.

Relativität von Form und Inhalt zeigt sich zwischen den Stufen der Kaskade. Was auf der einen Stufe Inhalt ist, wird auf der nächsten Stufe zur Form. Aber das ist nicht die Relativität, von der eingangs die Rede war. Dort war gemeint, dass auf ein und derselben Stufe der Kaskade Formen Inhalte aus sich heraussetzen oder sich ihnen verweigern können. Als Beispiel kann die Differenz zwischen einem formalen und einem materialen Rechtsstaatsbegriff dienen.

Damit ist die ordnende Kraft des Begriffspaars Form und Inhalt nicht erschöpft. Viele Einzelfragen lassen sich mit seiner Hilfe verstehen und formulieren. Hier einige Beispiele, die ich schon an anderer Stelle zusammengetragen hatte: Immer noch verbreitet ist die Unterscheidung zwischen Gesetzen im materiellen und solchen im formellen Sinne. (In den meisten dieser Fälle ist das aber kein Gegensatz: Gesetze im formellen können auch solche im materiellen Sinne sein.) Man unterscheidet zwischen formeller und materieller Rechtskraft, zwischen einem materiellen und einem formellen Parteibegriff. Der Bundespräsident nimmt gegenüber den Gesetzen ein formelles und (nach umstrittener Auffassung) ein materielles Prüfungsrecht in Anspruch. Im Grundbuchrecht kennen wir das formelle und ausnahmsweise das materielle Konsensprinzip.

Was folgt aus alledem? Hoffentlich Immunität gegen Paradoxitis.


[1] Rechtsästhetik in rechtsphilosophischer Absicht. Untersuchungen zu Formen und Wahrnehmungen des Rechts, 2020.

[2] Form, Stil und Substanz gerichtlicher Urteile – Am Beispiel der Verfassungsgerichtsbarkeit, a. a. O. S. 17-40.

[3] Über die Form des Rechts, a. a. O. S. 41-60.

[4] Eine Besprechung des ganzen Bandes ist in Vorbereitung.

[5] Zitate von S. 45, kursiv wie im Original.

[6] Diese Relativität ist zwar erst durch die Medientheorie zum Gemeinplatz geworden, war der Jurisprudenz aber schon vorher geläufig; vgl. Eugen Bucher, Für mehr Aktionendenken, AcP 186, 1986, 1-73 (S. 2-4).

[7] George Spencer Bown, Laws of Form, 1969, hier zitiert nach einer im Internet verfügbaren Ausgabe im Verlag The Julian Press, New York, 1972, dort S. 1.

[8] Niklas Luhmann, Frauen, Männer und George Spencer Brown, Zeitschrift für Soziologie 17, 1988, 47-71, S. 48 r. Sp.

[9] Edmund Husserl, Ideen zu einer reinen Phänomenologie und phänomenologischen Philosophie: Buch 1, Allgemeine Einführung in die reine Phänomenologie, 1913; S. 44f.

[10] Eine kluge Darstellung gibt Sybille Krämer, Form als Vollzug oder: Was gewinnen wir mit Niklas Luhmanns Unterscheidung von Medium und Form?, Rechtshistorisches Journal 17, 1998, 558-573.

[11] Petra Gehring greift Luhmanns Unterscheidung von Medium und Form auf und stellt eine Verbindung zur Ästhetik her: »Der Formbegriff zehrt von ästhetischen Untertönen – und womöglich ist diese unterschwellige Ästhetik irreduzibel für jede Logik der Form.« (Die Evidenz des Rechts. Zur »Form« des Geltungsphänomens Recht bei Luhmann und zur Frage, was daraus für den Formbegriff folgt, in: Dirk Rustemeyer (Hg.), Formfelder, 2006, 27-43, S. 41).

[12] Eine Stütze findet er bei Paul Cull/William Frank (Flaws of Form, International Journal of General Systems 5, 1979, 201-211). Sie meinen, dass Spencer Browns Lösung des Problems der Selbstreferenz auf einem Missverständnis des so genannten Russel‘s Paradox beruht.

[13] In diesem Fall hinken die Juristen der Soziologie kaum hinterher. Für die Soziologie Andreas Reckwitz, Die Gesellschaft der Singularitäten. Ich habe nur die Kurzfassung in dem von Busche u. a. hg. Sammelband »Kultur – Interdisziplinäre Zugänge«, 2018, dort S. 45-62, gelesen. Die einschlägige Rechskritik wird in dem von Ino Augsberg u. a. hg. Sammelband »Recht auf Nicht-Recht« (2020) gespiegelt. Auch den habe ich bisher nur ganz kursorisch gelesen (und fand ihn ziemlich ungenießbar).

Ähnliche Themen

Feministische Rechtswissenschaft ist im Zentrum der Jurisprudenz angekommen

Das Jahrbuch des öffentlichen Rechts, seit unvordenklichen Zeiten Hort der dogmatischen Jurisprudenz, hat in seinem jüngsten Band (NF 67, 2019) prominenten Feministinnen die Seiten 361-508 für einen Abschnitt »Debatte: Perspektivenerweiterung durch Genderforschung in der Rechtswissenschaft« überlassen.

Es handelt sich um insgesamt sechs Beiträge.

Catharine A. MacKinnon im Gespräch mit Susanne Baer: Gleichheit, realistisch, S. 361-375.

Ute Sacksofsky, Geschlechterforschung im öffentlichen Recht, S. 377-402.

Eva Kocher, Die Position der Dritten. Objektivität im bürgerlichen Recht, S. 403-426.

Friederike Wapler, Politische Gleichheit: Demokratie­theoretische Überlegungen, S. 427-455.

Elisabeth Holzleithner, Geschlecht als Anerkennungs­verhältnis. Perspektiven einer Öffnung der rechtlichen Kategorie im Zeichen des Prinzips gleicher Freiheit, S. 457-485.

Theresia Degener, Die UN Behindertenrechtskonvention  – Ansatz einer inklusiven Menschenrechtstheorie, S. 488-508.

Die Kennzeichnung als Debatte täuscht, denn es gibt keinen Beitrag, der das Postulat der Überschrift in irgendeiner Weise in Frage stellt. Zu den einzelnen Beiträgen:

In den USA gab es seit Ende der 1970er Jahre eine Feminist Jurisprudence. Dort ragte der Name von Catharine A. MacKinnon hervor, die einen radikalen Feminismus vertrat, wie er später ähnlich in Deutschland von Alice Schwarzer formuliert wurde. Angetrieben von der Idee, dass das biologische Geschlecht nicht die Rolle eines Menschen in der Gesellschaft bestimmen dürfe, durchforsteten MacKinnon und andere Juristinnen das Recht nach Spuren männlicher Dominanz. Das hatte zur Folge, dass der Feminismus als Wissenschaft zuerst in die juristischen Fakultäten Eingang fand.[1] MacKinnon brandmarkte die männliche Sexualität schlechthin als Quelle allen Übels. Heterosexuelle Beziehungen seien durch eine Ideologie der Verdinglichung charakterisiert, die Frauen als bloße Objekte männlicher Sexualität verstehe. Dieser Dominanzfeminismus machte geltend, die Unterdrückung der Frauen sei das Ergebnis männlichen Sexualität, sie sei prinzipiell mit Gewalt oder jedenfalls Gewaltdrohung verbunden. Das Ergebnis war ein männerfeindlicher Feminismus, der sich auf rechtlichem Gebiet besonders gegen Prostitution und Pornographie wandte[2] und die Kriminalisierung der sexuellen Belästigung (sexual harassment) betrieb. Eine späte Frucht des Dominanzfeminismus ist die #Metoo-Bewegung.

Im Gespräch mit Susanne Baer bestätigt MacKinnon ihre dominanzfeministische Position, die Verurteilung von Prostitution als »serielle Vergewaltigung« und von Pornographie als deren kleine Schwester.

Man wird nicht widersprechen, wenn MacKinnon erklärt, es »sollte vor allem zur Kenntnis genommen wird, dass in Ungleichheit nicht jedes Mal eingewilligt wird, wenn sie nicht auf Widerstand trifft. Den halben Lohn zu akzeptieren, macht ihn nicht gleich. Unter Bedingungen der Ungleichheit zu leben, wenn gleiche Alternativen keine Option sind, ist keine Gleichheit.« (S. 370) Es bleibt allerdings der Eindruck, dass sie das Geschlecht per se für Ungleichheit verantwortlich macht, allenfalls in Kombination mit Rasse. Baer legt MacKinnon  geradezu in den Mund, der Rassebegriff sei doch obsolet. Doch MacKinnon antwortet: »Es gibt race. Dann gibt es racism. Und dann gibt es white supremacy.« (S.363).

Kehrseite des radikalen Feminismus, für den MacKinnon steht, war einmal ein Differenzfeminismus.[3] Ausgehend von der weiblichen Körperlichkeit und der mit ihr verbundenen Gebärfähigkeit wurden die positiven Qualitäten »weiblichen« Sozialverhaltens wie Empathie, Intuition und ganzheitliche Wahrnehmung betont. Davon ist heute keine Rede mehr. Die Allianz mit der Queer-Theorie hindert den Feminismus, ein positives Frauenbild zu formulieren.

Ute Sacksofsky (Geschlechterforschung im öffentlichen Recht, S. 377-402) hebt an mit einer Klage über das »misogyne Recht«. Als Zeugen benennt sie Hegel. Hegel ist schon lange tot, mag auch sein Weltgeist noch im Bochumer Hegel Archiv spuken. Darunter muss keine Frau mehr leiden. Es gibt viele verdienstvolle Arbeiten zur Geschlechtergeschichte. Aber das daraus reproduzierte Narrativ zehrt von einem normativen Rückschaufehler.[4]

Sodann erweist Sacksofsky dem Queerfeminismus ihre Reverenz. Erst muss die Natürlichkeit und Normalität der herkömmlichen Geschlechterordnung dekonstruiert werden, bevor es zur Sache geht. Aber für das feministische Anliegen ist es nicht notwendig, einen »biologischen Mythos« zu »entlarven«. Auch wenn das Geschlecht im Normalfall biologisch/körperlich vorgegeben ist, bleibt doch der unterschiedliche soziale Status von Frauen und Männern unter den Bedingungen der Moderne ein Problem, das mit gutem Grund und allem Nachdruck unter dem Aspekt der Gleichheit erörtert werden muss. Die Randphänomene des biologischen Normalfalls begründen auch ein Problem, aber ein anderes.[5]

Tempora mutantur nosque mutamur in illis. Wo bleibt der Stolz auf das in nunmehr 171 Jahren Frauenbewegung Erreichte? Das Recht ist von oben bis unten, vom Völkerrecht, über Europarecht, Grundgesetz und einfaches Recht bis hin zur Geschäftsordnung der Bundesregierung auf Gender Mainstreaming getrimmt. In Deutschland gibt es fast so viele Gleichstellungsbeauftragte wie Richter.

Die Geschlechterforschung hat in den 1970er Jahren als Feminist Jurisprudence ihren Anfang genommen. [6] 2003 konnte Stefan Hirschauer schreiben, dass der »feministische Wertehorizont … längst mit einem gesellschaftlichen Common Sense ver­schwimmt«[7], und daran hat auch das Recht Anteil. Inzwischen geht die feministische Vereinnahmung des Rechts so weit, dass selbst in feministischen Traktaten von einem sich entwickelnden Staatsfeminismus die Rede ist.[8] Den Zeitgenossinnen mag der Wandel zu langsam und nicht weit genug gehen. Aber Historiker werden später mit einiger Sicherheit von einer Revolution des Geschlechterarrangements sprechen. Das sollten auch Juristinnen anerkennen.

Das öffentliche Recht braucht nicht umgekrempelt zu werden. Allein die »Trägheit der sozialen Praxis« (Hirschauer) gilt es zu bekämpfen. Freilich gehören Klagen im Stile Sacksofskys »zur Ökonomie politischer Aufmerksamkeit«. Hirschauer spricht insoweit von politischem Populismus.

Immerhin konzediert Sacksofsky in ihrem Fazit (S. 402), dass sich seit ihrer Antrittsvorlesung »Was ist feministische Rechtswissenschaft?« 2001 einiges verändert habe, beklagt aber, es fehle noch immer die institutionelle Verankerung der Geschlechterforschung in der deutschen Rechtswissenschaft. Das klingt, als ob feministische Rechtswissenschaft auf Perpetuierung angelegt wäre. Das Ziel sollte höher gesteckt werden. Der Feminismus als soziale Bewegung in Kombination mit seiner wissenschaftlichen Basis auch in der Jurisprudenz ist so erfolgreich, dass er den Ehrgeiz entwickeln könnte, sich selbst überflüssig zu machen.

Eva Kocher (Die Position der Dritten. Objektivität im bürgerlichen Recht, S. 403-426) leistet in ihrem Beitrag dogmatische Feinarbeit.

Eingangs zitiert Kocher Susanne Baer: »Objektivität wurde als ideologisch und eigentlich männlich entlarvt.«[9] Ähnliche Aussagen sind in der feministischen Rechtsliteratur Standard. Ihr Problem ist der rhetorische Überschuss, der aus der Verwendung eines undefinierten, unhistorischen Objektivitätsbegriffs resultiert. Es ist ja richtig, dass die Jurisprudenz Objektivität und Neutralität für sich in Anspruch nimmt. Doch was kann damit gemeint sein? Die Jurisprudenz war und ist nicht klüger als ihre jeweilige Zeit.

Der feministischen Objektivitätskritik geht es, ähnlich wie zuvor der Kritik an der »Klassenjustiz«, um die Aspektstruktur des Denkens, die – in der Begrifflichkeit der Wissenssoziologie Karl Mannheims – die Befangenheit einer ganzen Epoche ausmacht. Mannheim spricht insoweit von einer totalen Ideologie. Das Minimum, das wir von Mannheim übernehmen können, ist die Idee einer allgemeinen Seinsverbundenheit des Denkens. Ob man Mannheim auch darin folgen kann, dass insoweit jede Epoche von einer totalen Ideologie geprägt wird, hat Theodor Geiger bestritten[10]. Auch wenn man das gesamte Rechtssystem bei externer Betrachtung als »Klassenjustiz« einordnete, ließe sich intern, also relativ zu dem aktuell herrschenden Denkstil, sinnvoll nach Unabhängigkeit, Neutralität und »Objektivität« fragen. Analoges gilt, wenn man das gesamte Rechtssystem als patriarchalisch einordnet. Die Befangenheit einer ganzen Epoche in einem spezifischen Denkstil steht einem Selbstverständnis der Rechtsprechung als unabhängig, neutral und objektiv nicht im Wege.

Antworten auf konkrete Rechtsfragen ändern sich erst, wenn ein neuer Denkstil Platz greift. Damit das geschieht, müssen viele Rechtsfragen prospektiv kritisch von einem Standpunkt erörtert werden, der zunächst als externer erscheint, bis dann die Kritik solche Kraft gewinnt, dass der interne Denkstil Risse bekommt. Vorangetrieben wird der Wandel von sozialen Bewegungen und begleitender Wissenschaft, in diesem Falle eben vom Feminismus. In der Zeit des Wandels ist es die Strategie der Kritik, so zu reden, als rede sie von innerhalb des Rechtssystems. Diese Redeweise klingt anmaßend und geschichtsvergessen, weil sie den Denkstil der Epoche den aktuell handelnden Personen individuell zuzurechnen scheint.

Die externe Betrachtungsweise behandelt Funktionen des Rechts oder einzelner seiner Institutionen in einer Art und Weise, die sich nicht ohne weiteres in Rechtsnormen oder gar Tatbe­standsmerkmale übersetzen lässt und deshalb in der juristischen Arbeit anscheinend ignoriert werden muss. Es gibt jedoch über die Zeit einen fließenden Übergang von außen nach innen. Neue Theorien des Rechts werden oft von außen an das Recht herangetragen, bis sie am Ende mehr oder weniger in die Rechtstheorie integriert sind.[11] Der interne Standpunkt ist längst nicht so hermetisch geschlossen, wie die abstrakte Gegenüberstellung glauben machen könnte. An dieser Nahtstelle setzt Kocher an.

Kocher bleibt nüchtern und sachlich. Wenn sie das Credo der feministischen Objektivitätskritik anführt, benutzt sie Anführungszeichen. Feministische Rechtswissenschaft kritisiere »den ›ideologischen‹ und ›männlichen‹ Bias der ›Objektivität‹ «. Im Zentrum des Rechtssystems stehe das Selbstverständnis der Juristen, nach dem Rechtsprechung unabhängig und neutral und das Recht objektiv sein solle. Es folgt eine Klarstellung, was mit den Begriffen gemeint ist:

»Unabhängigkeit, Neutralität und Objektivität sind aufeinander bezogen, benennen aber unterschiedliche Aspekte dessen, was dem Recht und richterlicher Entscheidungstätigkeit zugeschrieben wird. ›Unabhängigkeit‹ ist ein negativer Begriff, der die Freiheit von wirtschaftlichen, politischen, institutionell-organisatorischen und persönlichen Abhängigkeiten bezeichnet. ›Neutralität‹ bezeichnet, ebenfalls in negativer Form, eine inhaltliche Orientierung, nämlich die emotionale Behandlung eines Problems, ohne Berücksichtigung persönlicher Bindungen oder institutioneller Abhängigkeiten. ›Objektivität‹ ist demgegenüber ein Versuch, diese Perspektiven positiv zu formulieren als eine Betrachtung allein nach Maßstäben des Rechts und der Sache.« (S. 404f)

Diese Formulierung gilt nur bei rechtssysteminterner Betrachtung. Die nachfolgende Ausgangsthese Kochers, das Zentrum des Rechtssystems sei leer, spielt zwar auf die rechtssystemexterne Kritik an, die das juristische Selbstverständnis gar nicht trifft. Kocher verweist auf Josef Essers »Vorverständnis und Methodenwahl in der Rechtsfindung« (1970) und auf Dieter Simon, Die Unabhängigkeit des Richters (1975) und daran anschließendes Schrifttum. Aber schon bei der Methodenkritik Essers ist der rechtsexterne Standpunkt nicht mehr so klar wie vielleicht noch bei Simon.

Kocher hält sich nicht mit der externen Betrachtung des Rechtssystems auf, sondern kommt schnell zur Sache, zu der Frage nämlich, »wie das komplementäre Konzept der Objektivität in der richterlichen Praxis gefüllt wird«. (S. 405) Dazu lässt sie Revue passieren, wie die Zivilrechtsprechung ihre Urteile mit der Figur eines mehr oder weniger imaginierten, empirischen oder normativ gedachten Dritten zu objektivieren versucht. Da ziehen vorbei der bonus pater familias, der objektive Beobachter und der verständige Rechtsgenosse, der vernünftige Angehörige eines Verkehrskreises, der ordentliche Kaufmann und der unvoreingenommene Durchschnittsleser. Dabei bezieht Kocher sich vor allem auf Elena Barnerts verdienstvolle Arbeit »Der eingebildete Dritte« von 2008, der sie eine »verspätete Besprechung« widmen will.

Es ist sicher richtig, dass dieser als objektiv vorgestellte Dritte keine objektive Objektivität für sich in Anspruch nehmen kann. Er schwankt zwischen behaupteter Empirie und mehr oder weniger verdeckter Normativität. Letztlich versteckt sich hinter dem objektiven Dritten die Subjektivität des Richters. Deshalb muss man diese Argumentationsfigur aber nicht gleich als sinnlos verwerfen. Das tut auch Kocher nicht. Sie hält es zwar für denkbar, auf den »god trick«[12] mit dem objektiven Dritten zu verzichten. Tatsächlich verhilft sie dem Dritten aber zu einer feministisch inspirierten Aufrüstung. An Stelle des einen objektiven Dritten solle man die verschiedene Positionen Revue passieren lassen. Dazu bezieht Kocher sich auf das Konzept der Positionalität[13], wie es von Katherine T. Bartlett[14] entwickelt wurde. Bartletts Aufsatz ist schon 30 Jahre alt. Aber er lohnt auch heute noch die Lektüre.

»The positional stance acknowledges the existence of empirical truths, values and knowledge, and also their contingency.« (S. 880)

Aber Wahrheiten im Sinne von bloßen Fakten haben aus unterschiedlicher Perspektive verschiedene Bedeutung. Eine wichtige Perspektive ist natürlich diejenige betroffener Frauen. Die Konsequenz liegt auf der Hand. Der Suche nach einem objektiven Dritten muss die Konfrontation verschiedener Perspektiven vorausgehen. Klar, dass nach Meinung Kochers die feministische Perspektive dabei größere Beachtung verdient. Wo es angezeigt ist, soll Herr Mustermann durch Frau Mustermann ersetzt werden oder auch beide zu Wort kommen. Schade nur, dass Kocher kein handfestes Beispiel liefert.

Friederike Wapler (Politische Gleichheit: Demokratietheoretische Überlegungen, S. 427-455) setzt sich mit der Frage auseinander, wie feministische Repräsentationsforderungen demokratie­theoretisch eingeordnet werden können. Konkret geht es dabei natürlich in erster Linie um Frauenquoten. Wapler bietet eine hilfreiche, ausgewogene Darstellung. Am Ende hält sie verbindliche Quotenregelungen jedenfalls für allgemeine politische Wahlen für problematisch. Die Problematik würde noch deutlicher, wenn man alle Gruppen, Minoritäten usw. usw. Revue passieren ließe[15], die Repräsentationsforderungen stellen könnten.

Elisabeth Holzleithner (Geschlecht als Anerkennungsverhältnis. Perspektiven einer Öffnung der rechtlichen Kategorie im Zeichen des Prinzips gleicher Freiheit, S. 457-485) referiert und reflektiert den Diskurs, der dem Beschluss des Bundesverfassungsgerichts zum Geburtenregister vorausgegangen ist. Dabei stellt sie neben der deutschen auch die österreichische Diskussion heraus. Das ist sicher für alle, die daran beteiligt oder engagiert waren, wichtig. Dem Beobachter erscheint der Beschluss des BVerfG heute allerdings dank der langen Bemühungen feministischer und queeraktivistischer Juristen so selbstverständlich, dass ihn die Geschichte nicht mehr wirklich interessiert. Allenfalls die Konsequenzen des Beschlusses können noch einmal für Aufregung sorgen, wenn sich die queerfeministische Forderung durchsetzen sollte, ganz auf einen Geschlechtseintrag im Geburtenregister zu verzichten. Holzleithner hält diese Lösung zwar für vorzugswürdig, aber sie akzeptiert, dass auch Mann, Frau und Andere ihre Geschlechtsidentität im Geburtsregister anerkannt wissen möchten.

Theresia Degener schließlich (Die UN Behindertenrechtskonvention – Ansatz einer inklusiven Menschenrechtstheorie, S. 488-508) gibt einen informativen Überblick über die UN-Behindertenkonvention und betont dabei die Parallelität der Disability Studies mit dem feministischen Konstruktivismus. Ihre Darstellung fordert die Auseinandersetzung mit dem feministischen Dogma von dem Dilemma der Differenz (Minow[16]) und der Tabuisierung von Natürlichkeits- und Normalitätsdiskursen heraus. Diese Auseinandersetzung würde hier aber zu weit führen. Hier sei nur angemerkt, dass rechtliche Anerkennung, wie sie Holzleithner vorschwebt, nicht ohne Bezeichnung der Differenz zu haben ist.

Mit Rücksicht darauf, dass Degener als Professorin an der Evangelischen Fachhochschule in Bochum tätig ist, mag es von Interesse sein, dass jedenfalls im benachbarten Gelsenkirchen, die Annahme der Disability Studies, Behinderung sei nur die Abweichung von einer sozial konstruierten Normalität, schwer zu vermitteln sein dürfte. In Gelsenkirchen wurden im Sommer drei Kinder geboren, bei denen an einer Hand keine Finger ausgebildet waren. Der Normalitätsdiskurs[17] beruft sich heute gerne auf Georges Canguilhem. Dessen »These, daß es an sich und a priori keine ontologische Differenz zwischen gelungenen und verfehlten Gebilden des Lebens gibt«[18], besagt aber weniger und anderes, als hineingelegt wird. Mit »gelungen« und »verfehlt« enthält sie zwei normative Ausdrücke, die ihren Gehalt relativieren. Unter Fehlbildungen oder anderen Behinderungen leiden Kinder und ihre Eltern. Niemand wird deshalb den Wert der Kinder als Menschen in Frage stellen. Canguilhem spricht bei solchen Fehlbildungen von Anomalien. Selten beeinträchtigen sie die Lebensfähigkeit des Individuums. Noch seltener erweisen sie sich als evolutionär. Ob eine Anomalie pathologisch ist, hängt, jedenfalls bei Menschen, davon ab, ob sie subjektiv darunter leiden und deshalb Therapie suchen. Insoweit gibt es freilich Rückkopplungsprozesse, bei denen Normalität ins Spiel kommt. Was als belastend empfunden wird, kann sich dem Betroffenen aus einem Vergleich mit anderen, aber auch aus Therapieangeboten erschließen. Aber wie gesagt, das Thema ist zu groß, um es hier nebenher zu behandeln.

___________________________________________________________

[1] Martha Fineman, Introduction: Feminist and Queer Legal Theory, in: Martha Fineman u. a. (Hg.), Feminist and Queer Legal Theory, Intimate Encounters, Uncomfortable Conversations, London 2009, S. 1-6.

[2] Mitstreiterin MacKinnons war insoweit Andrea Dworkin (Pornographie [Pornography, 1979], Männer beherrschen Frauen, Köln 1987).

[3] Judith Lorber, The Variety of Feminisms and their Contributions to Gender Equality, [Electronic ed.], Oldenburg 1997, S. 16

[4] Dazu auf Rzozblog Bourdieus Diagnose männlicher Herrschaft bei den Kabylen als normativer Rückschaufehler.

[5] Das ist Thema eines Vortrags, den ich für die Tagung »Organisierte Interessen und Recht, organisierte Interessen im Recht«, am 28./29. November 2019 in Bochum vorbereitet habe. Das Manuskript stelle ich auf Anforderung gerne zur Verfügung.

[6] Martha Fineman, Introduction: Feminist and Queer Legal Theory, in: Martha Fineman u. a. (Hg.), Feminist and Queer Legal Theory. Intimate Encounters, Uncomfortable Conversations, London 2009, S. 1-6.

[7] Stefan Hirschauer, Wozu »Gender Studies«? Geschlechtsdifferenzierungsforschung zwischen politischem Populismus und naturwissenschaftlicher Konkurrenz, Soziale Welt 54, 2003, 461-482, S. 463.

[8] Gesine Fuchs/Sabine Berghahn, Recht als feministische Politikstrategie?, Femina Politica 2012/2, 10-24, S. 11.

[9] Susanne Baer, Objektiv—neutral—gerecht? Feministische Rechtswissenschaft am Beispiel sexueller Diskriminierung im Erwerbsleben, Kritische Vierteljahresschrift für Gesetzgebung und Rechtswissenschaft 77, 1994, 154-178, S. 157.

[10] Klaus F. Röhl, Theodor Geiger, Bemerkungen zur Soziologie des Denkens, ARSP XLV, 1969, 23-52, in: Annette Brockmöller (Hg.), Hundert Jahre Archiv für Rechts- und Sozialphilosophie, 2007, S. 149-165.

[11] So eine These von Eric Hilgendorf, Die Renaissance der Rechtstheorie zwischen 1965 und 1985, 2005.

[12] Die Metapher stammt von Donna Haraway, auf die Kocher sich für die »Situiertheit« des Richterwsissens beruft: »… the god trick of seeing everything from nowhere … « (Donna Haraway, Situated Knowledges: The Science Question in Feminism and the Privilege of Partial Perspective, Feminist Studies 14, 1988, 575-599, S. 581).

[13] Der Ausdruck taugt als Übersetzung des englischen positionality eigentlich nicht, denn Hellmuth Plessner hat ihn für seine Anthropologie als exzentrische Positionalität belegt.

[14] Katharine T. Bartlett, Feminist Legal Methods, Harvard Law Review 103, 1989, 829-888, S. 880ff.

[15] So in einer Glosse »Frauenquote – Fraktur« am 2. 11. 2019 in der FAZ, gezeichnet mit dem Kürzel »tifr« (Timo Frasch).

[16] Martha Minow, Making All the Difference: Three Lessons in Equality, Neutrality, and Tolerance, DePaul Law Review 1, 1989, 1-13; dies., Making All the Difference. Inclusion, Exclusion, and American Law, Ithaca 1990, S. 19ff.

[17] Jürgen Link, Normal/Normalität/Normalismus, in: Karlheinz Barck/u. a. (Hg.), Ästhetische Grundbegriffe. Historisches Wörterbuch in sieben Bänden, 2010, Bd. 7, S. 538-562.

[18] Georges Canguilhem, Das Normale und das Pathologische [Le normal et le pathologique, Paris 1943], 1974, S. 12.

Ähnliche Themen

EUGH zum Genome-Editing (CRISPR/Cas9): Schulfall zur juristischen Methode und Ausfall von Interdisziplinarität

Recht ist politisch. Wer einen Beleg sucht, findet ihn in dem Urteil des EUGH vom 25. 7. 2018 (C-528/16).

Die Evangelische Akademie Villigst veranstaltete vom 17.-19. Mai 2019 eine Tagung über »Genome Editing – Schaffen wir eine neue Natur?«. Ich war nur als Chauffeur engagiert, hatte aber doch Gelegenheit, den Vorträgen von Prof. Dr. Ludwig Krämer, Madrid, und MdB René Röspel (SPD), Hagen, zu folgen. Krämer, früher in der Generaldirektion Umwelt der EU-Kommission tätig, verteidigte in seinem Vortrag das Urteil des EUGH, in dem das Gericht – entgegen dem Antrag des Generalanwalts Bobek – Züchtungsverfahren, die sich gezielter Mutagenese-Methoden bedienen, den Restriktionen der EU-Freisetzungsrichtlinie 2001/18 unterstellt.[1] Man sagt, ein Rechtsgutachten, das Krämer 2015 im Auftrag der NGO Testbiotech erstattet hatte[2], sei für den Ausgang des Verfahrens entscheidend gewesen, wiewohl das Urteil Krämer nicht zitiert und Krämer selbst das nicht für sich in Anspruch nimmt.

In dem von einem Landwirtschaftsverband und acht NGOs betriebenen Verfahren war dem EUGH vom französischen Conseil d’État, der über die Richtlinienkonformität einer Vorschrift des französischen Umweltgesetzbuchs zu befinden hatte, die Frage vorgelegt worden, ob mit Hilfe neuerer Mutagenese-Verfahren gezüchtete herbizidresistente Pflanzensorten unter die Restriktionen der Richtlinie 2001/18/EG – Freisetzungsrichtlinie – und (folglich unter Art. 4 IV der Richtlinie 2002/53/EG[3] – Sortenkatalogrichtlinie[4]) fielen. Hilfsweise wurde u. a. beantragt, die Mutagenese-Ausnahme der Richtlinie wegen Verstoßes gegen das Vorsorgeprinzip des Art. 191 Abs. 2 AEUV für nichtig zu erklären. Der EUGH folgte dem Hauptantrag, so dass der Hilfsantrag gegenstandslos wurde.

Das Urteil ist von vielen NGO begrüßt worden[5], stößt aber sonst eher auf Kritik.[6] Wissenschaftler und wissenschaftliche Organisationen argumentieren, die neuen Verfahren zeichneten sich dadurch aus, dass sie keine zufälligen, sondern punktuelle Mutationen an einem genau bekannten Ort im Genom herbeiführten. Dieser Kontrollgewinn sei in dem Urteil nicht angemessen berücksichtigt worden. Auf Initiative des Wissenschaftlerkreises Grüne Gentechnik (WGG e. V.) und des Dachverbandes der Biowissenschaften (VBIO e. V.) haben sich über 130 in der akademischen Pflanzenforschung tätige Wissenschaftler in einem Offenen Brief an die zuständigen Bundesministerinnen gewandt. In dem Brief ist zu lesen:

»Der Scientific Advice Mechanism (SAM), der wissenschaftliche Think Tank der Europäischen Kommission, hat in deren Auftrag durch Verfahren des Genome Editing entstandene Pflanzen bewertet und kam, ebenso wie beispielsweise die EFSA (und eine Vielzahl wissenschaftlicher Einrichtungen weltweit), zu dem Schluss, dass diese Pflanzen denen gleichzustellen sind, die durch konventionelle Züchtungs­techniken erzielt werden können. Es entbehrt nicht einer gewissen Ironie, dass es sich bei SAM und der EFSA um zwei von der Europäischen Kommission eingesetzte, wissenschaft­liche Gremien handelt, deren Schlussfolgerungen wiederum vom Europäischen Gerichtshof diametral widersprochen wird.«

Auch die Zentrale Kommission für die Biologische Sicherheit sieht keine naturwissenschaftliche Grundlage für die Auslegung der Freisetzungs-Richtlinie durch den EuGH. Was auch immer man davon hält: Das Urteil liefert einen Schulfall für die juristische Methode und ein Beispiel für verpasste Interdisziplinarität.

Die Freisetzungsrichtlinie unterstellt das Inverkehrbringen und die Freisetzung von »gentechnisch veränderten Organismen (GVO)« einem strengen Genehmigungsverfahren. Sie bestimmt jedoch in Anhang I B Ausnahmen, die nicht unter die Richtlinie fallen sollen, darunter Neuzüchtungen mittels »Mutagenese«.

Was unter Mutagenese zu verstehen ist, wird in der Richtlinie nicht definiert. Das sozusagen klassische Verfahren der Gentechnik, bei dem genetische Elemente aus einem Organismus in das Genom eines anderen transplantiert werden (Transfer von Fremd-DNA) ist als Transgenese geläufig. Dagegen bezeichnet man als Mutagenese die Nutzung zufälliger Mutationen des Genoms für die Züchtung neuer Sorten. Bei der modernen Pflanzenzüchtung wird dem Zufall nachgeholfen. Bei den älteren Verfahren geschieht das mit ionisierenden Strahlen oder erbgutverändernden Chemikalien. Diese Verfahren führen zu Beschädigungen (Deletionen) der DNA, die über eine Art Selbstheilung zu Mutationen führen können. Neuere Verfahren greifen auf bestimmte Abschnitte der DNA oder RNA zu. CRISPR/Cas9 ist nur das prominenteste und wohl effektivste dieser neuen Verfahren, mit denen Mutationen gezielter ausgelöst werden können als durch radioaktive Strahlung oder grobe Chemikalien. Deshalb spricht man allgemeiner bei diesen Verfahren zur Auslösung von Mutationen von Genome-Editing. Die Befürworter betonen, durch die neuen Verfahren würden zufallsgesteuerte Mutationen durch Punktmutationen ersetzt (»Skalpell statt Schrotflinte«). Die neuen Verfahren des Genome-Editing können allerdings nicht nur zum Schneiden (Deletion) von DNA Sequenzen, sondern auch zur Einbringung von Fremd-DNA oder RNA dienen. Insoweit handelt es sich dann um transgene Züchtung. In der Diskussion um das hier gemeinte EUGH-Urteil geht es aber ausschließlich um die mutagene Verwendung des Genome-Editing.

Allgemein hatte man erwartet, dass die neuen Verfahren den älteren Prozeduren der Mutagenese gleichgestellt werden würde. Der EUGH entschied anders. Er kam zu dem Ergebnis, die Freistellung durch Mutagenese entstandener neuer Sorten sei seinerzeit als Ausnahme für die damals bekannten Züchtungsverfahren gedacht gewesen und könne nicht auf die neueren Verfahren erstreckt werden, da es an Erfahrungen mit der Sicherheit dieser Verfahren fehle.

Zum Schulfall wird die Sache, weil in den drei Texten (EUGH, Generalanwalt, Krämer) mit Bausteinen aus der Methodenlehre hantiert wird – Wortlaut, Ausnahmeregelung, historische, statische und dynamische Auslegung. Die Methodenwahl, die am Ende das Ergebnis bestimmt, wird dabei von Prinzipienargumenten gelenkt. Prinzipienargumente ersetzen eine interdisziplinär angeleitete Folgenbetrachtung. Sie öffnen den Weg für das politische Vorverständnis.

Die Freisetzungsrichtlinie definiert in Art. 2:

»Im Sinne dieser Richtlinie bedeutet:

  1. ›Organismus‹: jede biologische Einheit, die fähig ist, sich zu vermehren oder genetisches Material zu übertragen;
  2. ›genetisch veränderter Organismus (GVO)‹: ein Organismus mit Ausnahme des Menschen, dessen genetisches Material so verändert worden ist, wie es auf natürliche Weise durch Kreuzen und/oder natürliche Rekombination nicht möglich ist.

Im Sinne dieser Definition gilt folgendes:

  1. a) Zu der genetischen Veränderung kommt es mindestens durch den Einsatz der in Anhang I A Teil 1 aufgeführten Verfahren;
  2. b) bei den in Anhang I A Teil 2 aufgeführten Verfahren ist nicht davon auszugehen, dass sie zu einer genetischen Veränderung führen.«

Anhang I A der Richtlinie nennt in Teil 1 beispielhaft (»u. a.«) Verfahren, die ohne weiteres GVO im Sinne von Art 2 Nr. 2 zum Ergebnis haben. Die dort aufgezählten Methoden fallen unter den biologischen Begriff der Transgenese (GA Fn. 10).

Art. 3 trägt die Überschrift »Ausnahmeregelung«. Nr. 1 lautet:

»Diese Richtlinie gilt nicht für Organismen, bei denen eine genetische Veränderung durch den Einsatz der in Anhang I B aufgeführten Verfahren herbeigeführt wurde.«

Dieser Anhang wiederum sagt:

»Verfahren/Methoden der genetischen Veränderung, aus denen Organismen hervorgehen, die von der Richtlinie auszuschließen sind, vorausgesetzt, es werden nur solche rekombinanten Nukleinsäuremoleküle oder genetisch veränderten Organismen verwendet, die in einem oder mehreren der folgenden Verfahren bzw. nach einer oder mehreren der folgenden Methoden hervorgegangen sind:

  1. Mutagenese,
  2. Zellfusion (einschließlich Protoplastenfusion) von Pflanzenzellen von Organismen, die mittels herkömmlicher Züchtungstechniken genetisches Material austauschen können.«

Um zu einem Urteil zu gelangen, war zunächst die Frage zu beantworten, ob mittels Genom-Editing gezüchtete Pflanzen überhaupt als genetisch veränderte Organismen (GVO) nach Art. 2 Nr. 2 in Betracht kommen. Nach Bejahung dieser Frage war weiter zu prüfen, ob die Organismen unter die Freistellung der Mutagenese in Anhang I B fallen.

Die erste Frage wird in den drei Texten übereinstimmend bejaht. Im biologischen Sinne genetisch verändert sind alle Züchtungen, bei denen die Mutation künstlich herbeigeführt worden ist, ganz gleich ob das mit den älteren Verfahren der Mutagenese oder durch Genome-Editing geschieht. Davon gehen auch die Formulierungen in Art. 3 Nr. 1 und im Anhang 1 B der Richtlinie aus. In jedem Fall geht es um genetische Veränderungen. Zum Rechtsbegriff des GVO wird die Veränderung jedoch erst dadurch, dass das Züchtungsergebnis »auf natürliche Weise durch Kreuzen und/oder natürliche Rekombination nicht möglich ist«. Mit diesem Teil des Tatbestands wird der Rechtsbegriff der GVO gegenüber dem biologischen Begriff der Genveränderung eingeschränkt. Diese Einschränkung wird von keinem der drei Texte erörtert. Der EUGH übergeht sie in Abs. 29 mit folgender Schnellsubsumtion:

»Zum anderen wird, da nach den Angaben in der Vorlageentscheidung einige der genannten Verfahren/Methoden mit dem Einsatz chemischer oder physikalischer Mutagene und andere von ihnen mit dem Einsatz von Gentechnik verbunden sind, durch diese Verfahren/Methoden eine auf natürliche Weise nicht mögliche Veränderung am genetischen Material eines Organismus im Sinne dieser Vorschrift vorgenommen.«

Das Gericht liest den Text so, als ob da stünde, »ein Organismus, dessen genetisches Material auf natürliche Weise durch Kreuzen und/oder natürliche Rekombination verändert worden ist«. Das »möglich« fällt dabei unter den Tisch. Denkbar ist aber auch eine Lesart, durch die das »möglich« einen Sinn erhält. Dann käme es nicht darauf an, ob die Genveränderung tatsächlich »durch Kreuzen und/oder natürliche Rekombination« gewonnen wurde, sondern ob sie sich vom Ergebnis her von einer »natürlichen« Genveränderung unterscheiden lässt. Das aber ist bei den Mutagenese-Züchtungen nicht der Fall, weil keine Fremdgene eingeschleust werden.

Gegen diese Lesart spricht als (äußeres) Systemargument, dass sie die Mutagenese-Ausnahme des Anhangs I B Nr. 1 überflüssig macht. Dieses Argument formuliert der GA in Abs. 62 dahin, »dass es unlogisch wäre, bestimmte Organismen von der Anwendung der Richtlinie auszunehmen, wenn diese Organismen nicht von vornherein als GVO anzusehen sein könnten.« Das Argument ist schwach, denn die Anhänge – ein typisches Exemplar von Umstandskrämerei bei der Formulierung von Europarecht – hätten dann zwar in erster Linie nur deklaratorische Bedeutung, könnten damit aber klarstellend und in Zweifelsfall auch konstitutiv wirken, wenn sie Züchtungen benennen, die nicht unter die Definition in Art. 2 Nr. 2 fallen, (Anhang I A Teil 1) oder andere, die darunter fallen, ausschließen (Anhang I A Teil 2 und Anhang I B). Die von der EU gepflegte Gesetzestechnik trägt nicht gerade zur Klarheit bei. Die Abs. 35-37 des Urteils machen es nicht besser. Doch da sich, wie gesagt, alle sonst einig sind, will ich nicht auf der alternativen Lesart beharren, und nur darauf hinweisen, dass die Einordnung der Mutagenese-Züchtungen als GVO Krämer und dem EUGH im weiteren Verlauf als rhetorisches Mittel dient, um auf eine Differenzierung zwischen Transgenese- und Mutagenese-Verfahren zu verzichten.

Das Problem spitzt sich damit auf die Frage zu, ob die neueren Züchtungsverfahren unter die Ausnahmeregelung des Anhangs I B Nr. 1 der Richtlinie fallen.

Jede Auslegung beginnt beim Wortlaut. Ausnahmen, so das Framing der Methodenlehre, sind grundsätzlich eng auszulegen. Dieser Grundsatz greift aber nur, wenn schon der Wortlaut Schwierigkeiten bereitet. Das ist hier nicht der Fall. Der Conseil d’État war davon ausgegangen, dass die neueren Verfahren nach dem Wortlaut von Anhang I B ohne weiteres unter die Mutagenese-Ausnahme fielen, dass jedoch zu prüfen sei, ob diese Ausnahme eng dahin auszugelegt werden müsse, dass nur die mit Hilfe der älteren, vor Erlass der Richtlinie bekannten Verfahren gewonnenen Züchtungen ausgenommen seien. So sieht es auch der GA. Krämer ziert sich ein bißchen, weil er nicht zwischen dem kontextfreien Wortsinn von Mutagenese und der vom Gesetzgeber dem Wort beigelegten Bedeutung unterscheidet. Auch der EUGH arbeitet insoweit nicht ganz sauber, wenn er in Abs. 41 »zunächst hervorhebt«, dass Art. 3 I der Richtlinie mit seinem Anhang IB als Ausnahmeregelung eng auszulegen sei. (Der Gedanke, dass die Freisetzungsrichtlinie als Verbotsgesetz eng, also seine Ausnahmen großzügig, ausgelegt werden könnte, liegt in Luxemburg und Brüssel so fern, dass er hier nur in Klammern angeführt wird.) Letztlich geht auch der EUGH zwei Absätze weiter davon aus, dass der Begriff der Mutagenese an sich auch das Genome-Editing deckt, solange es sich auf das bloße Schneiden der DNA mit anschließender Selbstheilung beschränkt.

Wenn aber die neuen Verfahren als Mutagenese im Wortsinne anzusehen sind, dann entsteht die Frage, ob eine einschränkende Auslegung des Wortlauts überhaupt zulässig und weiter, ob sie im konkreten Fall geboten ist. Der GA lässt (Abs. 103) das Stichwort contra legem fallen. Aber er konzediert die Möglichkeit einer restriktiven Auslegung, indem er in Abs. 98ff zwischen statischer und dynamischer Auslegung unterscheidet (und für letztere plädiert). Krämer unternimmt einige Anstrengungen, um die Zulässigkeit einer restriktiven Auslegung zu begründen (Abs. 33). Auch ohnedies ist man sich in der Methodenlehre einig, dass es geboten sein kann, einen zu weit erscheinenden Wortlaut einschränkend auszulegen. Dafür braucht man allerdings Gründe. Solche Gründe finden Krämer und der EUGH in einer historischen Auslegung in Verbindung mit den Erwägungsgründen der Richtlinie.

Krämer stellt darauf ab, dass der Begriff der Mutagenese in der Richtlinie nicht definiert sei. Daher dürfe man darunter nur die Verfahren subsumieren, die zum Zeitpunkt des Erlasses schon bekannt gewesen seien. Das seien nur die Verfahren mit radioaktiver Strahlung und Chemikalien gewesen, die schon seit den 1920ern in Gebrauch gewesen seien und vom Gesetzgeber als unproblematisch angesehen worden wären (4ff). Hier sei für die Auslegung des Ausnahmetatbestands der Erwägungsgrund Nr. 17 heranzuziehen, der bestimmt:

»Diese Richtlinie sollte nicht für Organismen gelten, die mit Techniken zur genetischen Veränderung gewonnen werden, die herkömmlich bei einer Reihe von Anwendungen angewandt wurden und seit langem als sicher gelten.«

Krämer verfolgt die Entstehung der Freisetzungsrichtlinie noch weiter zurück mit dem Ergebnis, die Richtlinie sei prozessorientiert (4). Sie betrachte nicht den gentechnisch veränderten Organismus als solchen, sondern sehe auf den Prozess, der die Änderung herbeigeführt habe. Das entnimmt er dem Prädikat »verändert« in Art. 2 Nr. 2. Verändert werden die Gene allerdings auch bei natürlichen Zufallsmutationen. Es ist aber sicher richtig, dass Art. 2 Nr. 2 nicht auch die spontanen Genveränderungen, sondern nur die züchterisch induzierten erfassen soll. Deshalb ist es richtig, die Ausnahmeregelung des Anhangs 1 B »verfahrensorientiert« zu nennen. Diese Feststellung im Zusammenhang mit dem Erwägungsgrund Nr. 17 liefert allerdings zunächst nur die Erklärung, wie die Ausnahme seinerzeit begründet worden ist. Bei Erlass der Richtlinie gab es keine Mutagenese-Verfahren, die von der Ausnahme ausgeschlossen werden sollten. Krämer schreibt:

»It is difficult to imagine that the EU, when it adopted Directive 2001/18 had anything else in mind than the random mutagenesis methods which existed at that time. In other words, the term ›mutagenesis‹ in Directive 2001/18 meant to exempt the random mutagenesis methods.«

Der Generalanwalt nennt diesen Schluss eine »statische« Lösung und kritisiert sie als »originalistischen Ansatz zur Rechtsauslegung, der auf dieser Seite des Atlantiks nicht häufig anzutreffen« sei (Abs. 100). Das ist eine Anspielung auf den Originalismus[7], der sich in den USA als Methode zur Auslegung der Verfassung breit macht. Es geht dabei nicht um den Gegensatz von subjektiver und objektiver Auslegungsmethode, sondern um eine interne Differenzierung bei der subjektiven Auslegung, die den Umgang mit dem sozialen und technischen Wandel betrifft, den der Normgeber noch nicht bedacht hat. Der GA unterscheidet insoweit zwischen statischer und dynamischer Auslegung. Nur wer der Auslegungstheorie des Originalismus anhängt, kann vorliegend allein aus der Historie schließen, dass die Ausnahme allein für die beim Erlass der Norm bereits bekannten Methoden der Mutagenese-Züchtung Geltung hat.

Doch auch, wenn man solchen Originalismus nicht akzeptiert, ist eine restriktive Auslegung der Mutagenese-Ausnahme noch nicht vom Tisch. Krämer bestärkt seine subjektiv-historische Auslegung durch eine teleologische. Dazu bezieht er sich auf das Vorsorgeprinzip, wonach die zur Zeit der Entstehung der Richtlinie noch unbekannten Verfahren vorsorglich inhibiert werden müssten. Zum Vorsorgeprinzip hatte der Generalanwalt geschrieben: »Schönheit liegt im Auge des Betrachters.« (Abs. 68). Wer nicht ganz so skeptisch ist, staunt aber doch, wie Krämer und der EUGH mit dem Vorsorgeprinzip umgehen.

Unter Prinzipien kann man nicht subsumieren. Die Argumentation mit Prinzipien muss immer in eine Abwägung münden. Krämer erspart sich diese Abwägung durch ein weiteres historisches Argument. Er referiert den Streit um die Zulassung des insektenresistenten BT-Mais[8], um die Bedeutung des Vorsorgeprinzips hervorzuheben. Die Zulassung des genveränderten Mais wurde 1998 von der Kommission gegen die Mehrheit der Mitgliedsstaaten durchgesetzt. Über eine Öffnungsklausel dürfen die Länder den Anbau dennoch verbieten. Davon hat die Mehrheit, u. a. Deutschland, Gebrauch gemacht. Die Freisetzungsrichtlinie, so Krämer, habe zum Ziel gehabt, der Ablehnung der Gentechnik im Publikum Rechnung zu tragen und dafür hohe Sicherungsstandards gesetzt. Deshalb müsse sich das Vorsorgeprinzip nun auch bei der Auslegung der Richtlinie durchsetzen.

Es ist kaum der Sinn des Vorsorgeprinzips, die von zahlreichen NGOs gepflegten Gefühle des Publikums zur Geltung zu bringen.[9] Wenn die Politik das Vorsorgeprinzip verbiegt, indem sie auf die Risikoakzeptanz der Wähler abstellt, so muss man das zur Kenntnis nehmen. Von unabhängigen Gerichten und Juristen, die Wissenschaftlichkeit für sich in Anspruch nehmen, darf man erwarten, dass sie erörtern, was im konkreten Falle im Sinne des Vorsorgeprinzips erforderlich ist. Der einzige Gesichtspunkt, der hier auftaucht, besagt, dass das Genome-Editing sozusagen einen Quantensprung hinsichtlich der Möglichkeiten der induzierten Mutagenese[10] bedeutet. Dieser Gesichtspunkt bleibt aber einseitig, wenn nicht auch der von den Befürwortern der CRISPR/Cas9-Methode behauptete Qualitätssprung bedacht wird. Krämer gibt sich damit zufrieden, dass es erforderlich sei, das Publikum zu beruhigen, dem er anscheinend eine Differenzierung zwischen verschiedenen Methoden der grünen Gentechnik nicht zutraut. Damit erspart er sich eine Risikoanalyse für das Genom-Editing.

Freilich will auch der Generalwalt keine Risikoanalyse zur Ausfüllung des Vorsorgeprinzips. Unter Verweis auf die Rechtsprechung des EUGH führt er aus, »eine korrekte Anwendung des Vorsorgeprinzips [erfordere] erstens die Bestimmung der möglicherweise negativen Auswirkungen der betreffenden Stoffe oder Lebensmittel auf die Gesundheit und zweitens eine umfassende Bewertung des Gesundheitsrisikos auf der Grundlage der zuverlässigsten verfügbaren wissenschaftlichen Daten und der neuesten Ergebnisse der internationalen Forschung« (Abs. 49), um am Ende aber einzuschränken, »die Rolle des Gerichtshofs [sei] insoweit zwangsläufig begrenzt. Es [sei] sicherlich nicht seine Aufgabe, wissenschaftliche Argumente zu vergleichen und zu prüfen. Dies [sei] Aufgabe des Unionsgesetzgebers oder der Exekutive.« (Abs. 149)

Insoweit gibt es in der Tat ein Problem. Wenn das Gericht sich auf eine Risikoanalyse einlässt, handelt es sich dann um eine Beweisaufnahme oder ist das Gericht frei, alle vorhandenen Erkenntnismittel heranzuziehen? Jedenfalls die obersten Gerichte tun insoweit, was sie wollen und für sinnvoll halten. Für das Bundesverfassungsgericht sei auf die schon ältere Arbeit von Philippi verwiesen.[11] Wie der EUGH mit solchen Fragen umgeht, zeigt unser Fall:

»Wie das vorlegende Gericht im Wesentlichen hervorhebt, könnten sich die mit dem Einsatz dieser neuen Verfahren/Methoden der Mutagenese verbundenen Risiken aber als vergleichbar mit den bei der Erzeugung und Verbreitung von GVO durch Transgenese auftretenden Risiken erweisen. Aus den Angaben, über die der Gerichtshof verfügt, ergibt sich somit zum einen, dass mit der unmittelbaren Veränderung des genetischen Materials eines Organismus durch Mutagenese die gleichen Wirkungen erzielt werden können wie mit der Einführung eines fremden Gens in diesen Organismus, und zum anderen, dass die Entwicklung dieser neuen Verfahren/Methoden die Erzeugung genetisch veränderter Sorten in einem ungleich größeren Tempo und Ausmaß als bei der Anwendung herkömmlicher Methoden der Zufallsmutagenese ermöglicht.«

Eine eigenständige Bewertung des Risikos, dem es vorzubeugen gilt, findet nicht statt. Seit 1982 hat die Europäische Kommission über 300 Mio. EUR in die Forschung zur biologischen Sicherheit von GVO investiert.[12] Kein Wort davon in einem der drei Texte. Interdisziplinarität = Fehlanzeige.

Da man nicht annehmen darf, dass so hoch qualifizierte Juristen, wie sie im und um den EUGH herum tätig werden, mit der hier naheliegenden Interdisziplinarität überfordert sind, werden sie wohl mit dem Generalanwalt die Ansicht vertreten, dass mangels ausreichenden Risikowissens die Einschätzung des Risikos dem demokratischen Gesetzgeber und der von ihm ermächtigten Exekutive überlassen werden müsse. Exekutive war in diesem Fall der Premierminister, der es abgelehnt hatte, ein Moratorium für die Einführung herbizidtoleranter Pflanzensorten, die durch Mutagenese gewonnen wurden, auszusprechen EUGH Abs. 20) und der seine Entscheidung vor dem EUGH verteidigte. Der vorlegende Conseil d’État hatte ausgeführt, es »sei unmöglich, mit Sicherheit festzustellen, ob und in welchem Umfang die neuen herbizidresistenten Sorten Risiken für die Umwelt und die Gesundheit von Mensch und Tier darstellten, da die bislang einzigen Risikobewertungen im Rahmen des Genehmigungsverfahrens für das Inverkehrbringen der Pflanzenschutzmittel stattgefunden hätten, gegen die diese Sorten resistent gemacht worden seien« (EUGH Abs. 23). Wenn das Gericht auf eine eigenständige Bewertung verzichtet, dann verwirft es die Risikoeinschätzung der Exekutive grundsätzlich nur, wenn sie auf Verfahrens- und offensichtlichen Beurteilungsfehlern beruht.[13] Von solchen Fehlern ist hier aber nicht die Rede.

Ein Prinzip kommt selten allein. Mit dem Vorsorgeprinzip könnte ein Innovationsprinzip konkurrieren. Anders als das Vorsorgeprinzip ist es in den Verträgen nicht besonders vereinbart. Allerdings nennt Art. 39 Abs. 1 AEUV als Ziel der gemeinsamen Agrarpolitik die Produktivität der Landwirtschaft durch Förderung des technischen Fortschritts, und aus Art. 179 AEUV kann man herauslesen, dass wissenschaftlicher und technischer Fortschritt und die Wettbewerbsfähigkeit der Industrie zu den Zielen der EU gehören. Aktuell wird diskutiert, ob ein als solches deklariertes Innovationsprinzip eingeführt werden sollte.[14] Vom EUGH war unter diesen Umständen eine Nennung des Innovationsprinzips mangels rechtlicher Dignität nicht zu erwarten. Aber auch ohne formales Gegenprinzip hat das Vorsorgeprinzip immanente Schranken. Sie wären mit einem Innovationsprinzip sogar noch zu eng markiert. Risikovorsorge verlangt eine Abwägung mit positiven sozialen, technischen und wirtschaftlichen Effekten. Eine solche »Vergesellschaftung«[15] finde ich in keinem der drei Texte.

In seinem Vortrag meinte Krämer immerhin, ein praktischer Bedarf für die neuen Züchtungsmethoden sei nicht gegeben, denn die Ernährung der Weltbevölkerung sei kein Produktions- sondern ein Verteilungsproblem. Das Argument als solches mag zutreffen. Aber da eine Lösung des Verteilungsproblems nicht in Sicht ist, muss man wohl auch das Produktionsproblem anpacken. Den Befürwortern der grünen Gentechnik geht es allerdings nicht nur um eine quantitative Ausweitung der Produktion, sondern auch oder sogar in erster Linie um deren Nachhaltigkeit, weil sie die Möglichkeit des Verzichts auf Herbizide und Insektizide und auf eine CO2-generierende Bodenbearbeitung sehen. Es geht ferner um eine Verbesserung der sozialen Situation der Produzenten und der Konsumenten und qualitative Verbesserung der Ernährung. Für Krämer haben die Stimmen aus der Wissenschaft jedoch kein Gewicht, denn letztlich gehe es um Verwertungsinteressen, und auch die Wissenschaft werde weitgehend von der Wirtschaft finanziert. Dieses Argument machte er in seinem Vortrag so stark, dass ihm der SPD-MdB entgegenhielt, die Dinge seien doch wohl komplexer.

In seinem Votum hatte Krämer auf die Gentechnikdebatte verwiesen, die dem Erlass der Richtlinie vorausgegangen war. Im Vortrag bedauerte er, dass es aktuell zum Thema Genome-Editing in Deutschland keine große Diskussion gebe. Er verglich das Genome-Editing mit der Erzeugung von Hormonfleisch, ohne insoweit zwischen den verschiedenen Anwendungen zu differenzieren, und meinte, unter seinen Zuhörer sei keiner bereit, genveränderten Lachs zu essen. Mich hatte er dabei nicht im Blick, und Röspel erwiderte, das Publikum werde seine Meinung schnell ändern, wenn der Gen-Lachs 50 c billiger sei.

Was folgt aus alledem? Prinzipienjurisprudenz ist die neue Begriffsjurisprudenz. Man legt hinein, was man herausholen möchte. Was herausgeholt werden soll, wird aber nicht vor Gericht, sondern in anderen Foren ausdiskutiert. Dort läuft die organisierte Zivilgesellschaft der institutionalisierten Rechtswissenschaft den Rang ab.[16] So wird das Recht politisch.

______________________________________________

[1] Einen Überblick über den Diskussionsstand vor dem Urteil geben Thorben Sprink/Dennis Eriksson/Joachim Schiemann/Frank Hartung, Regulatory hurdles for genome editing: process- vs. product-based approaches in different regulatory contexts, Plant Cell Reports 35 , 2016, 1493-1506.

[2] The Genome Editing Technique Is Covered by Directive 2001/18. Comment on Advocate Bobeks Opinion in case C-528/16. Vorausgegangen war 2015 ein Gutachten im Auftrag von sieben NGO mit dem Titel »Legal Questions Concerning New Methods for Changing the Genetic Conditions in Plants«. Bereits 2013 hatte Krämer für Testbiotech ein umfangreiches Gutachten über die Bedeutung des Vorsorgeprinzips für den Umgang mit genetisch modifizierten Organismen erstattet (Genetically Modified Living Organisms and the Precautionary Principle).

[3] Die Bestimmung lautet: »Genetisch veränderte Sorten im Sinne des Artikels 2 Absätze 1 und 2 der Richtlinie 90/220/EWG dürfen nur zugelassen werden, wenn alle entsprechenden Maßnahmen getroffen wurden, um nachteilige Auswirkungen auf die menschliche Gesundheit und die Umwelt zu vermeiden.«

[4] Auch die Verordnung (EG) Nr. 1830/2003 über die Rückverfolgbarkeit und Kennzeichnung von genetisch veränderten Organismen hätte hier genannt werden können, denn sie verweist für die Definition von GVO auf die Freisetzungsrichtlinie.

[5] Z. B. von Test Biotech.

[6] Lars Fischer, Der lange Schatten der Ideologien, Spektrum – Die Woche 30/2018.

[7] Vgl. dazu Lawrence B. Solum, What is Originalism?, SSRN 2011 Nr. 1825543; ders., Surprising Originalism, SSRN 2018 Nr. 3175412; ders., Originalism versus Living Constitutionalism, SSRN 2019 Nr. 3324264.

[8] BT steht für ein Protein, das aus dem Bacillus Thurigensis gewonnen und gentechnisch so in den Mais eingebaut wird, dass er gegen Insekten resistent wird.

[9] Die Wahrnehmung ökologischer Risiken wird kommunikativ erzeugt (»konstruiert«) und ist erst in zweiter Linie von den objektiven Verhältnissen bestimmt (Rainer Grundmann, Wo steht die Risikosoziologie?, Zeitschrift für Soziologie 28, 1999, 44-59, S. 54). Interdisziplinäres zur Risikowahrnehmung hat Werner Heun zusammengestellt (Staatliche Risikosteuerung und Verfassung, RW 2, 2011, 376-399, S. 386f).

[10] Das besagt der Übersichtsartikel von Katharina Kawall, New Possibilities on the Horizon: Genome Editing Makes the Whole Genome Accessible for Changes, Frontiers in Plant Science 10, 2019, Artikel 525, 10 S.

[11] Klaus Juergen Philippi, Tatsachenfeststellungen des Bundesverfassungsgerichts, 1971.

[12] Pressemitteilung der Kommission, Stand vom 19. 2. 2018.

[13] Wolfgang Köck, Die Entwicklung des Vorsorgeprinzips im Recht – ein Hemmnis für Innovationen zum nachhaltigen Wirtschaften?, in: Bernd Hansjürgens/Ralf Nordbeck (Hg.), Chemikalienregulierung und Innovationen zum nachhaltigen Wirtschaften, 2005, 85-120, S. 113, mit Nachweisen aus der Rspr. de EUGH.

[14] Arnim von Gleich/Ulrich Petschow, Aktuelle Diskussion um die Einführung eines Innovationsprinzips und das Verhältnis zum Vorsorgeprinzip, Kurzstudie im Auftrag des NABU, 2017.

[15] De Ausdruck übernehme ich hier kontextfrei von Dan Wielsch, Die Vergesellschaftung rechtlicher Grundbegriffe, ZfRSoz 38, 2018, 304-337.

[16] Dazu der eindrucksvolle Bericht von Frank Pergande, Eine Saat geht auf. Unsere Gesellschaft wird immer grüner. Perfekt organisierte Verbände haben viel dafür getan, FamS vom 30. 6. 2019.

Ähnliche Themen