Normalität und Normativität

Zwei Argumente sind heute schlechthin verpönt, wenn es gilt, menschliches Verhalten zu bewerten oder einzufordern. Man sich darf weder darauf berufen, etwas sei natürlich, noch, es sei normal. Erst recht das Argument, etwas sei von Natur aus normal, gilt in tonangebenden akademischen Kreisen als hinterwäldlerisch oder gar populistisch. Es ist an der Zeit, in einem natural turn solchen Argumenten wieder zu ihrem Recht zu verhelfen.

Eines ist klar: Natur und Normalität sind keine normativen Instanzen. Entsprechende Argumente können keine normative Verbindlichkeit beanspruchen. Insoweit steht die Differenz von Sein und Sollen entgegen. Aber zur Stützung normativer Forderungen dürfen diese Argumente verwendet werden, sofern dies mit der gebotenen Vorsicht geschieht. Die »Natur der Sache« kann als Schlüssel zur Interdisziplinarität dienen, wenn dabei keine »Renaissance des Naturrechts auf verhaltenswissenschaftlicher Grundlage«[1] herauskommt.

Semantische Verschränkung von Normalität und Normativität

90 % der Menschen sind Rechtshänder, 95 % können Farben erkennen. Aber 10 % sind Linkshänder und etwa 5 % sind farbenblind. Fast alle Menschen können nach ihren Genen und nach den äußeren Geschlechtsmerkmalen als Mann oder Frau erkannt werden. Bei etwa 2 % ist die Zuordnung unklar. Bis zu 10 % fühlen nicht entsprechend der äußerlichen biologischen Zuordnung. Man kann zunächst wertfrei feststellen: Rechtshändigkeit ist normal; Farbenblindheit ist nicht normal. Immer noch wertfrei kann man festhalten: Linkshändigkeit hat für die Betroffenen an sich keine funktionalen Nachteile. Nachteile entstehen erst dadurch, dass die Welt für die Mehrheit der Rechtshänder eingerichtet ist. Farbenblindheit wäre dagegen funktional nachteilig, selbst wenn niemand bunte Bilder malen oder Filme zeigen würde, denn schon die Differenzierung der natürlichen Farben fällt schwer. Abweichungen von der geschlechtlichen Identität sind für die biologische Reproduktion unfunktional. Sie haben in der heterosexuellen Mehrheitsgesellschaft sekundäre funktionale Nachteile

Auch menschliches Verhalten ist mehr oder weniger normal. Normalerweise schläft man des nachts und wacht am Tage. Fast alle Menschen führen ein Handy bei sich, wenn sie aus dem Haus gehen. Niemand ist verpflichtet, nachts zu schlafen. Aber wer nicht gerade Nachtarbeiter ist, kann sonst kaum etwas Besseres tun. Niemand ist verpflichtet, ein Handy mit sich zu führen. Aber wer darauf verzichtet, lässt sich Kontakt- und Informationsmöglichkeiten entgehen. In der Rechtssoziologie gab man sich einmal große Mühe, zwischen bei der Einteilung der Verhaltensmuster zwischen bloßen Verhaltensgleichförmigkeiten und verbindlichen Normen zu unterscheiden. Ein Beispiel aus der Ethnologie: In einfachen Stammesgesellschaften sind, obwohl eine Norm fehlt, die das Heiraten vorschreibt, sind fast alle verheiratet. Der Grund dafür liegt in den Nachteilen, die mit der Position des Ledigen verbunden sind. Er hat kein besonderes Ansehen in der Gesellschaft, er hat ökonomische Nachteile, weil ihm niemand bei der Arbeit hilft. Da er keine Kinder hat, ist er in Krankheit und Alter ohne Schutz. Diese negativen Konsequenzen, die von Seiten der Umgebung nicht als Strafen gemeint sind, reichen für eine Verhaltensuniformität aus.[2] Der Übergang von bloß funktionaler Konformität zu sozialem Konformitätsdruck ist fließend.

Zwischen natürlicher Normalität und sozialer Normativität steht der Standard. Eine Standardisierung setzt schon im Altertum mit der Festlegung von Maßen, Gewichten und Münzwerten ein. Sie entwickelt sich in der Neuzeit im Militär und bei Manufakturen, und wird zum unverzichtbaren Instrument für die Rationalisierung von Technik, Wirtschaft und Kommunikation.

Das Normale ist per se keine soziale Norm. Aber gegenüber dem Normalen zeigen Menschen sich lernbereit, weil das Normale normalerweise auch funktional ist. Die Orientierung am Normalen erleichtert die Qual der Wahl und ist oft zweckmäßig, so dass eine Abweichung sich selbsttätig rächt. Wer bei Regen keinen Schirm benutzt, wird nass. Wer sich nicht an die üblichen Essenzeiten hält, wird schwer eine Mahlzeit finden. Wer kein Handy bei sich trägt, verzichtet auf Kontaktmöglichkeiten und Informationen. Wer sich nicht normal verhält, zieht Aufmerksamkeit auf sich. Das kann erwünscht sein, ist aber oft unerwünscht. Wer sich verhält, wie mehr oder weniger alle anderen, vermeidet Risiken, auch wenn ihm gelegentlich Chancen entgehen. Das Normale ist self-executing, auch wenn es nicht sozial eingefordert wird. Es kann dahinstehen, ob es neben dieser Funktionalität normalen Verhaltens noch eine psychische Anlage zur Nachahmung gibt.

Künstler finden Normalität langweilig oder trivial. Reformer und Revolutionäre entdecken in der Normalität die Unterdrückung des Besonderen und Abweichenden. Aber das ist eben nicht »normal«. Aber die normale Reaktion auf das Anormale scheint negativ zu sein. Wenn es »normal« ist, dass normales Verhalten sozial eingefordert wird, so wird Normalität zum Problem. Das Problem ist die mit der Normalität assoziierte Normativität. Ein Psychologie-Lexikon definiert:

»Normalität, erwünschtes, akzeptables, gesundes, förderungswürdiges Verhalten im Gegensatz zu unerwünschtem, behandlungsbedürftigem, gestörtem, abweichendem Verhalten (auch: Wahnsinn, Verrücktheit, gestörtes Seelenleben, psychische Krankheit).«

Im Normalitätsbegriff scheinen Sein und Sollen unlösbar miteinander verkoppelt zu sein. Aber die Verschränkung von Normalität und Normativität lässt sich semantisch entwirren und psychologisch erklären. Damit werden Normalität und Normativität zu Begriffen mit unterschiedlicher Bedeutung.

Normal, normativ und anomal

Es liegt nahe, die Analyse etymologisch zu beginnen.[3] Die Etymologie ist interessant, aber am Ende wenig hilfreich, denn sowohl »normal« als auch »normativ« leiten sich vom lateinischen norma = Winkel ab. Immerhin lohnt es sich, der Herkunft des nach Klang und Bedeutung ähnlichen Ausdrucks »anomal« nachzugehen.

Geläufig sind uns die Vokabeln normal und anormal. Aber manchmal ist auch die Rede von Anomalität und anomal oder anomisch, alle ohne das r, aber mit langem O. Anormal und anomal haben ähnliche Bedeutung, aber sprachlich nichts miteinander zu tun. Normal kommt von dem lateinischen norma. Das ist das Winkelmaß, aber auch der der rechte Winkel, im übertragenen Sinne die Regel. Anomal, so meinen viele, stamme vom griechischen Wort νόμος = Gesetz. Das könnte die Bedeutungsähnlichkeit erklären. Aber das ist ein verbreiteter Irrtum. Tatsächlich steckt dahinter das griechische Wort ἀνώμαλός. Das ist die Negativform von homalós (ὁμαλός), was eben oder gleichmäßig bedeutet. Wir kennen diesen Wortstamm aus dem Wort »homogen«. Merkwürdigerweise wird anomal nur mit dem Alpha privativum, also mit der negierenden Vorsilbe verwendet. Nomal als eine positive Version ist nicht gebräuchlich. Das liegt wohl daran, dass es nicht nomal, sondern homal heißen müsste, so dass das Wort als Gegenbegriff zu anomal nicht mehr ohne weiteres erkennbar wäre. Das Wort ὁμαλός beginnt im Griechischen mit einem Omikron, das einen Spiritus asper trägt, also ein diakritisches Zeichen, das wie ein H gesprochen wird. In der altgriechischen Negativform ἀνώμαλός wird aus dem kurzen Omikron ein langes Omega, und der Spiritus asper und damit der H-Laut verschwinden. Wie die Griechen das Wort früher ausgesprochen haben, ist unklar. Jedenfalls für uns heute ist der ursprüngliche Wortstamm von der Aussprache her nicht zu erkennen. Hält man sich dennoch an die Etymologie, so hat jedenfalls der Ausdruck »Anomalie« deskriptive Bedeutung.

Dagegen ist der Normbegriff von vornherein zweideutig, weil ein Maßstab nicht nur buchstäblich wie das Winkelmaß an unbelebte Gegenstände angelegt werden kann, sondern im übertragenen Sinne auch an menschliches Verhalten. Der Maßstab als Abstraktion eines Winkels, ganz gleich welchen Grades, ist zunächst keine Soll-Norm. Wenn norma der rechte Winkel ist, dann kann man beschreibend feststellen, dass eine Linie senkrecht steht oder vom Lot abweicht. Dabei bewegt man sich ganz im Deskriptiven. Der Winkel wird zur Norm, wenn eine Bauordnung bestimmt, dass die Dachneigung 45° betragen soll. Die ordnungsgemäß erlassene Bauordnung als Norm ist wiederum bloß ein Maßstab und damit eine Tatsache. Erst die Überzeugung von ihrer Geltung macht sie zur Soll-Norm. Ein Urteil, das ein Faktum von einer Norm her qualifiziert, ist wiederum deskriptiv. Normativ im Sinne von wertend wird das Urteil erst, wenn es implizit besagt: Und das ist gut so. Damit wird in dasjenige, was faktisch einer Norm entspricht, die Normgeltung hineingelesen. Komplizierter noch wird die Sache dadurch, oft auch ohne vorgängige Norm in normales = gleichförmiges Verhalten eine Norm hineingelesen wird, ein Effekt, den wir sogleich als die normative Kraft des Faktischen einordnen werden. Durch diese »Ambiguitäten« stiftet der Normalitätsbegriff viel Verwirrung. Als Ausweg bleibt nur die Möglichkeit der Unterscheidung von Normalität und Normativität mit Hilfe einer Nominaldefinition, die besagt: Die Ausdrücke »normal« und »Normalität« verwenden wir deskriptiv, also für empirisch beobachtbare Gleichförmigkeiten. »Normativ« und »Normativität« sollen dagegen bedeuten, dass die so gekennzeichneten Verhaltensweisen in irgendeiner Weise sozial – und das kann auch heißen: rechtlich – eingefordert werden.

[Fortsetzung folgt.]

Nachtrag: Der Deutsche Ethikrat hat eine Arbeitsgruppe Arbeitsgruppe »Normalitätsvorstellungen in den Lebenswissenschaften«. Die veranstaltet am 20 Oktober eine öffentliche Anhörung über »Normalität und Normalisierungsprozesse im Spiegel von Psychiatrie, Phänomenologie und Medienwissenschaft«: https://www.ethikrat.org/anhoerungen/normalitaet-und-normalisierungsprozesse/.


[1] Damit beziehe ich mich auf die Sammelrezension von Erhard Blankenburg, Die Rechtsbiologie – Renaissance des Naturrechts auf verhaltenswissenschaftlicher Grundlage?, Zeitschrift für Rechtssoziologie 6, 1985, 135-140.

[2] Siegfried S. Nadel, Social Control and Self-Regulation, Social Forces 31, 1953, 256-273.

[3] Das hat wohl als erster Georges Canguilhem unternommen: Das Normale und das Pathologische (Le normal et le pathologique, 1966), 1974, S. 86f.

.

Ähnliche Themen

Die Natur der Sache als Schlüssel zur Interdisziplinarität

Darf man heute noch mit der Natur der Sache argumentieren? Auf den ersten Blick wohl kaum. Aber vielleicht kommt die Natur der Sache in neuer Verkleidung als natural turn zurück.

1988 erschien ein Buch von Ingo Braun zur Soziologie der Waschmaschine.[1] Damals wurde es als ein Stück Techniksoziologie abgeheftet. Nachdem Bruno Latour die Büroklammer soziologiefähig gemacht hat, lese ich Brauns Buch als Beispiel für die Verankerung von Kultur und Gesellschaft in materiellen Grundlagen. Die Suche nach der Materialität der Gesellschaft und ihres Rechts ist im Gange. Ist das eine neue Formel für die »Natur der Sache«? Gerät nunmehr gar die Natur im buchstäblichen Sinne ins Visier? Folgt dem material turn ein natural turn? Diesen Fragen will ich in mehreren aufeinander aufbauenden Einträgen nachgehen. Letztlich geht es mir darum, die »Natur der Sache« als Topos der Interdisziplinarität auszuweisen.

Die Berufung auf die »Natur der Sache« nutzt die Beschreibung eines natürlichen, technischen oder sozialen Sachverhalts, um normative Konsequenzen nahezulegen. Hinter vielen Bemühungen um Interdisziplinarität steckt nichts anderes als die Suche nach der »Natur der Sache«. Nur der Begriff wird vermieden. Das hängt wohl damit zusammen, dass der juristische Begriff die Zuständigkeit der Jurisprudenz für die normativen Konsequenzen zu implizieren scheint, die andere Disziplinen gerne für sich vindizieren würden.

Zur »Natur der Sache« zitieren Juristen gewöhnlich Dernburg:

»Die Lebensverhältnisse tragen, wenn auch mehr oder weniger entwickelt, ihr Maß und ihre Ordnung in sich. Diese den Dingen innewohnende Ordnung nennt man Natur der Sache. Auf sie muss der denkende Jurist zurückgehen, wenn es an einer positiven Norm fehlt oder wenn dieselbe unvollständig oder unklar ist.«[2]

Das Zitat lässt schon erkennen, dass die »Natur« der Sache nicht natürlich im Sinne von kreatürlich zu verstehen ist. Auch das Soziale ist insoweit Natur. In diesem Sinn bildet die »Natur der Sache« einen traditionellen Baustein der Jurisprudenz.[3]

Ein eher harmloses Beispiel bietet die Ableitung von sog. ungeschriebenen Gesetzgebungszuständigkeiten des Bundes kraft Natur der Sache. Sie soll in Betracht kommen, wenn eine Materie »begriffsnotwendig« nur durch Bundesgesetz geregelt werden kann (BVerfGE 11, 89/99). Niemand bezweifelt, dass dem Bund eine ungeschriebene Kompetenz für die Festlegung der Bundeshauptstadt oder der Bundessymbole zukommt. Jede andere Lösung wäre mit Rücksicht auf die praktischen Folgen untragbar. Es fragt sich jedoch, wie dies angesichts der Art. 30, 70 I GG zu begründen ist. Die h. M. argumentiert denn auch nicht wirklich mit der »Natur der Sache«, sondern bemüht sich, diese Kompetenz als eine solche »kraft Sachzusammenhangs« im Wege der Auslegung nachzuweisen. Wichtig wurde diese Kompetenz bei der Regelung wiedervereinigungsbedingter Fragen (BVerfGE 84, 143/148; E 95, 243/248f.)

Was als Sachzusammenhang bezeichnet wird, wird oft zum »Sachzwang«. Der Sachzwang ist die technokratische Version der Natur der Sache. Ähnlich liegt es mit dem Funktionsargument. Wer von Funktionen spricht – und nicht von Zwecken –, fordert damit eine funktionsgerechte Entscheidung. Besonders für das Verfassungsrecht wollen manche die »funktionsrechtliche Richtigkeit« als Auslegungsprinzip heranziehen.[4] Der »Sachzwang« ist als Argument rigider noch als die Natur der Sache. Es werden beschreibende Behauptungen vorgebracht und normative Konsequenzen als unvermeidbar dargestellt: There Is No Alternative = TINA. Aber es gibt immer eine Alternative.[5]

Der material turn bewegt die Soziologie, die Natur mit ihrer Materialität zur Erklärung sozialer Phänomene heranzuziehen. Wo solche Erklärungen erfolgreich sind, drängen sich leicht normative Folgerungen auf, die als Argumente aus der Natur der Sache erscheinen. Das ist aber kein Grund, auf solche Erklärungen zu verzichten. Es ist nur vorab klarzustellen, dass der Topos von der Natur der Sache argumentationstheoretisch ein Wesensargument bildet. Er verfügt über eine starke persuasive Wirkung. Unreflektiert verbirgt er hinter einer Beschreibung oder Definition einen naturalistischen Fehlschluss. Husserl zum Trotz: Das Wesen des Wesens ist sein Unwesen. Daraus folgt aber nicht, dass sich aus der »Natur der Sache« oder aus »Sachzwängen« keine normativen Argumente herleiten lassen. Es geht um nichts anderes als um den immer wieder beschworenen Bezug auf die Wirklichkeit. Es muss nur klargestellt werden, dass die normativen Konsequenzen nicht zwingend sind, weil ihre Akzeptanz stets ein Werturteil erfordert. Insoweit ist in der Tradition des Neukantianismus und Max Webers an dem Werturteilscharakter jeder Entscheidung festzuhalten. Mit dieser Tradition konkurrierte jedoch in der ersten Hälfte des 20. Jahrhunderts die starke philosophische Strömung der Phänomenologie, die gegenwärtig als Neue Phänomenologie eine Renaissance erlebt und im material turn sogar die kulturalistische Soziologie ergreift, die in den letzten Jahrzehnten alle Argumentation über Werte und Entscheidungen durch den Verweis auf soziale Praktiken ersetzen wollte. Das Thema nimmt damit gerade erst Fahrt auf.


[1] Ingo Braun, Stoff, Wechsel, Technik. Zur Soziologie und Ökologie der Waschmaschinen, 1988.

[2]  System des röm. Rechts, 8. Aufl. 1911, S. 64.

[3] Wie geläufig die »Natur der Sache« als juristische Denkform war, hat Rals Dreier dargestellt: Zum Begriff der »Natur der Sache«, 1965.

[4] Ein Sammelband zu Ehren des Soziologen Helmut Schelsky von 1977 trägt den Titel »Sachzwang und Freiheit«. Schelsky war überzeugt, dass die mit der Moderne zunehmende Verwissenschaftlichung die Entscheidungsspielräume von Recht und Politik des Lebens durch technische Sachzwänge reduzieren würden.

[5] Astrid Séville, »There is no alternative«: Politik zwischen Demokratie und Sachzwang, 2017 (Rezension von Thomas Biebricher PVS 60, 2019, 619-621).

Ähnliche Themen

Schnittstellen der Interdisziplinarität

Nach wie vor wird über Interdisziplinarität mehr geredet, als dass sie praktiziert wird. Es ist ein beliebtes Spiel, Schnittstellen zwischen dem Recht und Fremddisziplinen zu benennen, ohne dass daraus konkrete interdisziplinäre Arbeit folgt. Oft genannt und wenig verwendet werden die so genannten Schlüsselbegriffe, die verschiedene Disziplinen verbinden sollen, indem sie auf gemeinsame Aufmerksamkeits- und Arbeitsfelder verweisen. Gleichbedeutend spricht man von »interdisziplinären Verbundbegriffen«, »Kontaktbegriffen«, »Brückenbegriffen«, »Verweisungs-« oder »Vermittlungsbegriffen«.[1] Paul Trappe hatte 1964 in seiner Einleitung zu Theodor Geigers Vorstudien zu einer Soziologie des Rechts« einen ganzen Katalog »legitimer Eintrittspunkte der Soziologie in die Rechtswissenschaft« gesammelt. Moderner spricht Matthias Jestaedt von Schnittstellen.[2] Klar: Der Ehrgeiz hinter der Aufforderung zur Interdisziplinarität geht weiter. Man will keine Schnittstellen, sondern es soll »genuin« interdisziplinär gearbeitet werden. Bevor ich darauf eingehe, rufe ich in Erinnerung, was ich vor bald 50 Jahren über »Eintrittspunkte« zu Papier gebracht habe. So viel hat sich seither nicht getan.

Meine vor genau 50 Jahren verfasste und 1974 veröffentlichte Habilitationsschrift »Das Dilemma der Rechtstatsachenforschung« ist der Sache nach eine Abhandlung über die Problematik der Interdisziplinarität der Rechtswissenschaft. Ich habe das ganze Buch jetzt bei Academia.edu zum Download eingestellt.[1] An dieser Stelle füge ich nur den Abschnitt über »Eintrittspunkte der Soziologie in die Rechtswissenschaft« ein:

Download (PDF, 138KB)


[1] Die Datei ist mit ca 13 MB zu groß, um sie hier auf das Blog hochzuladen.

[1] Matthias Jestaedt, Das mag in der Theorie richtig sein …, 2006, S. 73 bei Fn. 210; Röhl/Röhl, Allgemeine Rechslehre, 3. Aufl. 2008, S. 60f.

[2] A. a. O. S. 71.

Ähnliche Themen

EUGH zum Genome-Editing (CRISPR/Cas9): Schulfall zur juristischen Methode und Ausfall von Interdisziplinarität

Recht ist politisch. Wer einen Beleg sucht, findet ihn in dem Urteil des EUGH vom 25. 7. 2018 (C-528/16).

Die Evangelische Akademie Villigst veranstaltete vom 17.-19. Mai 2019 eine Tagung über »Genome Editing – Schaffen wir eine neue Natur?«. Ich war nur als Chauffeur engagiert, hatte aber doch Gelegenheit, den Vorträgen von Prof. Dr. Ludwig Krämer, Madrid, und MdB René Röspel (SPD), Hagen, zu folgen. Krämer, früher in der Generaldirektion Umwelt der EU-Kommission tätig, verteidigte in seinem Vortrag das Urteil des EUGH, in dem das Gericht – entgegen dem Antrag des Generalanwalts Bobek – Züchtungsverfahren, die sich gezielter Mutagenese-Methoden bedienen, den Restriktionen der EU-Freisetzungsrichtlinie 2001/18 unterstellt.[1] Man sagt, ein Rechtsgutachten, das Krämer 2015 im Auftrag der NGO Testbiotech erstattet hatte[2], sei für den Ausgang des Verfahrens entscheidend gewesen, wiewohl das Urteil Krämer nicht zitiert und Krämer selbst das nicht für sich in Anspruch nimmt.

In dem von einem Landwirtschaftsverband und acht NGOs betriebenen Verfahren war dem EUGH vom französischen Conseil d’État, der über die Richtlinienkonformität einer Vorschrift des französischen Umweltgesetzbuchs zu befinden hatte, die Frage vorgelegt worden, ob mit Hilfe neuerer Mutagenese-Verfahren gezüchtete herbizidresistente Pflanzensorten unter die Restriktionen der Richtlinie 2001/18/EG – Freisetzungsrichtlinie – und (folglich unter Art. 4 IV der Richtlinie 2002/53/EG[3] – Sortenkatalogrichtlinie[4]) fielen. Hilfsweise wurde u. a. beantragt, die Mutagenese-Ausnahme der Richtlinie wegen Verstoßes gegen das Vorsorgeprinzip des Art. 191 Abs. 2 AEUV für nichtig zu erklären. Der EUGH folgte dem Hauptantrag, so dass der Hilfsantrag gegenstandslos wurde.

Das Urteil ist von vielen NGO begrüßt worden[5], stößt aber sonst eher auf Kritik.[6] Wissenschaftler und wissenschaftliche Organisationen argumentieren, die neuen Verfahren zeichneten sich dadurch aus, dass sie keine zufälligen, sondern punktuelle Mutationen an einem genau bekannten Ort im Genom herbeiführten. Dieser Kontrollgewinn sei in dem Urteil nicht angemessen berücksichtigt worden. Auf Initiative des Wissenschaftlerkreises Grüne Gentechnik (WGG e. V.) und des Dachverbandes der Biowissenschaften (VBIO e. V.) haben sich über 130 in der akademischen Pflanzenforschung tätige Wissenschaftler in einem Offenen Brief an die zuständigen Bundesministerinnen gewandt. In dem Brief ist zu lesen:

»Der Scientific Advice Mechanism (SAM), der wissenschaftliche Think Tank der Europäischen Kommission, hat in deren Auftrag durch Verfahren des Genome Editing entstandene Pflanzen bewertet und kam, ebenso wie beispielsweise die EFSA (und eine Vielzahl wissenschaftlicher Einrichtungen weltweit), zu dem Schluss, dass diese Pflanzen denen gleichzustellen sind, die durch konventionelle Züchtungs­techniken erzielt werden können. Es entbehrt nicht einer gewissen Ironie, dass es sich bei SAM und der EFSA um zwei von der Europäischen Kommission eingesetzte, wissenschaft­liche Gremien handelt, deren Schlussfolgerungen wiederum vom Europäischen Gerichtshof diametral widersprochen wird.«

Auch die Zentrale Kommission für die Biologische Sicherheit sieht keine naturwissenschaftliche Grundlage für die Auslegung der Freisetzungs-Richtlinie durch den EuGH. Was auch immer man davon hält: Das Urteil liefert einen Schulfall für die juristische Methode und ein Beispiel für verpasste Interdisziplinarität.

Die Freisetzungsrichtlinie unterstellt das Inverkehrbringen und die Freisetzung von »gentechnisch veränderten Organismen (GVO)« einem strengen Genehmigungsverfahren. Sie bestimmt jedoch in Anhang I B Ausnahmen, die nicht unter die Richtlinie fallen sollen, darunter Neuzüchtungen mittels »Mutagenese«.

Was unter Mutagenese zu verstehen ist, wird in der Richtlinie nicht definiert. Das sozusagen klassische Verfahren der Gentechnik, bei dem genetische Elemente aus einem Organismus in das Genom eines anderen transplantiert werden (Transfer von Fremd-DNA) ist als Transgenese geläufig. Dagegen bezeichnet man als Mutagenese die Nutzung zufälliger Mutationen des Genoms für die Züchtung neuer Sorten. Bei der modernen Pflanzenzüchtung wird dem Zufall nachgeholfen. Bei den älteren Verfahren geschieht das mit ionisierenden Strahlen oder erbgutverändernden Chemikalien. Diese Verfahren führen zu Beschädigungen (Deletionen) der DNA, die über eine Art Selbstheilung zu Mutationen führen können. Neuere Verfahren greifen auf bestimmte Abschnitte der DNA oder RNA zu. CRISPR/Cas9 ist nur das prominenteste und wohl effektivste dieser neuen Verfahren, mit denen Mutationen gezielter ausgelöst werden können als durch radioaktive Strahlung oder grobe Chemikalien. Deshalb spricht man allgemeiner bei diesen Verfahren zur Auslösung von Mutationen von Genome-Editing. Die Befürworter betonen, durch die neuen Verfahren würden zufallsgesteuerte Mutationen durch Punktmutationen ersetzt (»Skalpell statt Schrotflinte«). Die neuen Verfahren des Genome-Editing können allerdings nicht nur zum Schneiden (Deletion) von DNA Sequenzen, sondern auch zur Einbringung von Fremd-DNA oder RNA dienen. Insoweit handelt es sich dann um transgene Züchtung. In der Diskussion um das hier gemeinte EUGH-Urteil geht es aber ausschließlich um die mutagene Verwendung des Genome-Editing.

Allgemein hatte man erwartet, dass die neuen Verfahren den älteren Prozeduren der Mutagenese gleichgestellt werden würde. Der EUGH entschied anders. Er kam zu dem Ergebnis, die Freistellung durch Mutagenese entstandener neuer Sorten sei seinerzeit als Ausnahme für die damals bekannten Züchtungsverfahren gedacht gewesen und könne nicht auf die neueren Verfahren erstreckt werden, da es an Erfahrungen mit der Sicherheit dieser Verfahren fehle.

Zum Schulfall wird die Sache, weil in den drei Texten (EUGH, Generalanwalt, Krämer) mit Bausteinen aus der Methodenlehre hantiert wird – Wortlaut, Ausnahmeregelung, historische, statische und dynamische Auslegung. Die Methodenwahl, die am Ende das Ergebnis bestimmt, wird dabei von Prinzipienargumenten gelenkt. Prinzipienargumente ersetzen eine interdisziplinär angeleitete Folgenbetrachtung. Sie öffnen den Weg für das politische Vorverständnis.

Die Freisetzungsrichtlinie definiert in Art. 2:

»Im Sinne dieser Richtlinie bedeutet:

  1. ›Organismus‹: jede biologische Einheit, die fähig ist, sich zu vermehren oder genetisches Material zu übertragen;
  2. ›genetisch veränderter Organismus (GVO)‹: ein Organismus mit Ausnahme des Menschen, dessen genetisches Material so verändert worden ist, wie es auf natürliche Weise durch Kreuzen und/oder natürliche Rekombination nicht möglich ist.

Im Sinne dieser Definition gilt folgendes:

  1. a) Zu der genetischen Veränderung kommt es mindestens durch den Einsatz der in Anhang I A Teil 1 aufgeführten Verfahren;
  2. b) bei den in Anhang I A Teil 2 aufgeführten Verfahren ist nicht davon auszugehen, dass sie zu einer genetischen Veränderung führen.«

Anhang I A der Richtlinie nennt in Teil 1 beispielhaft (»u. a.«) Verfahren, die ohne weiteres GVO im Sinne von Art 2 Nr. 2 zum Ergebnis haben. Die dort aufgezählten Methoden fallen unter den biologischen Begriff der Transgenese (GA Fn. 10).

Art. 3 trägt die Überschrift »Ausnahmeregelung«. Nr. 1 lautet:

»Diese Richtlinie gilt nicht für Organismen, bei denen eine genetische Veränderung durch den Einsatz der in Anhang I B aufgeführten Verfahren herbeigeführt wurde.«

Dieser Anhang wiederum sagt:

»Verfahren/Methoden der genetischen Veränderung, aus denen Organismen hervorgehen, die von der Richtlinie auszuschließen sind, vorausgesetzt, es werden nur solche rekombinanten Nukleinsäuremoleküle oder genetisch veränderten Organismen verwendet, die in einem oder mehreren der folgenden Verfahren bzw. nach einer oder mehreren der folgenden Methoden hervorgegangen sind:

  1. Mutagenese,
  2. Zellfusion (einschließlich Protoplastenfusion) von Pflanzenzellen von Organismen, die mittels herkömmlicher Züchtungstechniken genetisches Material austauschen können.«

Um zu einem Urteil zu gelangen, war zunächst die Frage zu beantworten, ob mittels Genom-Editing gezüchtete Pflanzen überhaupt als genetisch veränderte Organismen (GVO) nach Art. 2 Nr. 2 in Betracht kommen. Nach Bejahung dieser Frage war weiter zu prüfen, ob die Organismen unter die Freistellung der Mutagenese in Anhang I B fallen.

Die erste Frage wird in den drei Texten übereinstimmend bejaht. Im biologischen Sinne genetisch verändert sind alle Züchtungen, bei denen die Mutation künstlich herbeigeführt worden ist, ganz gleich ob das mit den älteren Verfahren der Mutagenese oder durch Genome-Editing geschieht. Davon gehen auch die Formulierungen in Art. 3 Nr. 1 und im Anhang 1 B der Richtlinie aus. In jedem Fall geht es um genetische Veränderungen. Zum Rechtsbegriff des GVO wird die Veränderung jedoch erst dadurch, dass das Züchtungsergebnis »auf natürliche Weise durch Kreuzen und/oder natürliche Rekombination nicht möglich ist«. Mit diesem Teil des Tatbestands wird der Rechtsbegriff der GVO gegenüber dem biologischen Begriff der Genveränderung eingeschränkt. Diese Einschränkung wird von keinem der drei Texte erörtert. Der EUGH übergeht sie in Abs. 29 mit folgender Schnellsubsumtion:

»Zum anderen wird, da nach den Angaben in der Vorlageentscheidung einige der genannten Verfahren/Methoden mit dem Einsatz chemischer oder physikalischer Mutagene und andere von ihnen mit dem Einsatz von Gentechnik verbunden sind, durch diese Verfahren/Methoden eine auf natürliche Weise nicht mögliche Veränderung am genetischen Material eines Organismus im Sinne dieser Vorschrift vorgenommen.«

Das Gericht liest den Text so, als ob da stünde, »ein Organismus, dessen genetisches Material auf natürliche Weise durch Kreuzen und/oder natürliche Rekombination verändert worden ist«. Das »möglich« fällt dabei unter den Tisch. Denkbar ist aber auch eine Lesart, durch die das »möglich« einen Sinn erhält. Dann käme es nicht darauf an, ob die Genveränderung tatsächlich »durch Kreuzen und/oder natürliche Rekombination« gewonnen wurde, sondern ob sie sich vom Ergebnis her von einer »natürlichen« Genveränderung unterscheiden lässt. Das aber ist bei den Mutagenese-Züchtungen nicht der Fall, weil keine Fremdgene eingeschleust werden.

Gegen diese Lesart spricht als (äußeres) Systemargument, dass sie die Mutagenese-Ausnahme des Anhangs I B Nr. 1 überflüssig macht. Dieses Argument formuliert der GA in Abs. 62 dahin, »dass es unlogisch wäre, bestimmte Organismen von der Anwendung der Richtlinie auszunehmen, wenn diese Organismen nicht von vornherein als GVO anzusehen sein könnten.« Das Argument ist schwach, denn die Anhänge – ein typisches Exemplar von Umstandskrämerei bei der Formulierung von Europarecht – hätten dann zwar in erster Linie nur deklaratorische Bedeutung, könnten damit aber klarstellend und in Zweifelsfall auch konstitutiv wirken, wenn sie Züchtungen benennen, die nicht unter die Definition in Art. 2 Nr. 2 fallen, (Anhang I A Teil 1) oder andere, die darunter fallen, ausschließen (Anhang I A Teil 2 und Anhang I B). Die von der EU gepflegte Gesetzestechnik trägt nicht gerade zur Klarheit bei. Die Abs. 35-37 des Urteils machen es nicht besser. Doch da sich, wie gesagt, alle sonst einig sind, will ich nicht auf der alternativen Lesart beharren, und nur darauf hinweisen, dass die Einordnung der Mutagenese-Züchtungen als GVO Krämer und dem EUGH im weiteren Verlauf als rhetorisches Mittel dient, um auf eine Differenzierung zwischen Transgenese- und Mutagenese-Verfahren zu verzichten.

Das Problem spitzt sich damit auf die Frage zu, ob die neueren Züchtungsverfahren unter die Ausnahmeregelung des Anhangs I B Nr. 1 der Richtlinie fallen.

Jede Auslegung beginnt beim Wortlaut. Ausnahmen, so das Framing der Methodenlehre, sind grundsätzlich eng auszulegen. Dieser Grundsatz greift aber nur, wenn schon der Wortlaut Schwierigkeiten bereitet. Das ist hier nicht der Fall. Der Conseil d’État war davon ausgegangen, dass die neueren Verfahren nach dem Wortlaut von Anhang I B ohne weiteres unter die Mutagenese-Ausnahme fielen, dass jedoch zu prüfen sei, ob diese Ausnahme eng dahin auszugelegt werden müsse, dass nur die mit Hilfe der älteren, vor Erlass der Richtlinie bekannten Verfahren gewonnenen Züchtungen ausgenommen seien. So sieht es auch der GA. Krämer ziert sich ein bißchen, weil er nicht zwischen dem kontextfreien Wortsinn von Mutagenese und der vom Gesetzgeber dem Wort beigelegten Bedeutung unterscheidet. Auch der EUGH arbeitet insoweit nicht ganz sauber, wenn er in Abs. 41 »zunächst hervorhebt«, dass Art. 3 I der Richtlinie mit seinem Anhang IB als Ausnahmeregelung eng auszulegen sei. (Der Gedanke, dass die Freisetzungsrichtlinie als Verbotsgesetz eng, also seine Ausnahmen großzügig, ausgelegt werden könnte, liegt in Luxemburg und Brüssel so fern, dass er hier nur in Klammern angeführt wird.) Letztlich geht auch der EUGH zwei Absätze weiter davon aus, dass der Begriff der Mutagenese an sich auch das Genome-Editing deckt, solange es sich auf das bloße Schneiden der DNA mit anschließender Selbstheilung beschränkt.

Wenn aber die neuen Verfahren als Mutagenese im Wortsinne anzusehen sind, dann entsteht die Frage, ob eine einschränkende Auslegung des Wortlauts überhaupt zulässig und weiter, ob sie im konkreten Fall geboten ist. Der GA lässt (Abs. 103) das Stichwort contra legem fallen. Aber er konzediert die Möglichkeit einer restriktiven Auslegung, indem er in Abs. 98ff zwischen statischer und dynamischer Auslegung unterscheidet (und für letztere plädiert). Krämer unternimmt einige Anstrengungen, um die Zulässigkeit einer restriktiven Auslegung zu begründen (Abs. 33). Auch ohnedies ist man sich in der Methodenlehre einig, dass es geboten sein kann, einen zu weit erscheinenden Wortlaut einschränkend auszulegen. Dafür braucht man allerdings Gründe. Solche Gründe finden Krämer und der EUGH in einer historischen Auslegung in Verbindung mit den Erwägungsgründen der Richtlinie.

Krämer stellt darauf ab, dass der Begriff der Mutagenese in der Richtlinie nicht definiert sei. Daher dürfe man darunter nur die Verfahren subsumieren, die zum Zeitpunkt des Erlasses schon bekannt gewesen seien. Das seien nur die Verfahren mit radioaktiver Strahlung und Chemikalien gewesen, die schon seit den 1920ern in Gebrauch gewesen seien und vom Gesetzgeber als unproblematisch angesehen worden wären (4ff). Hier sei für die Auslegung des Ausnahmetatbestands der Erwägungsgrund Nr. 17 heranzuziehen, der bestimmt:

»Diese Richtlinie sollte nicht für Organismen gelten, die mit Techniken zur genetischen Veränderung gewonnen werden, die herkömmlich bei einer Reihe von Anwendungen angewandt wurden und seit langem als sicher gelten.«

Krämer verfolgt die Entstehung der Freisetzungsrichtlinie noch weiter zurück mit dem Ergebnis, die Richtlinie sei prozessorientiert (4). Sie betrachte nicht den gentechnisch veränderten Organismus als solchen, sondern sehe auf den Prozess, der die Änderung herbeigeführt habe. Das entnimmt er dem Prädikat »verändert« in Art. 2 Nr. 2. Verändert werden die Gene allerdings auch bei natürlichen Zufallsmutationen. Es ist aber sicher richtig, dass Art. 2 Nr. 2 nicht auch die spontanen Genveränderungen, sondern nur die züchterisch induzierten erfassen soll. Deshalb ist es richtig, die Ausnahmeregelung des Anhangs 1 B »verfahrensorientiert« zu nennen. Diese Feststellung im Zusammenhang mit dem Erwägungsgrund Nr. 17 liefert allerdings zunächst nur die Erklärung, wie die Ausnahme seinerzeit begründet worden ist. Bei Erlass der Richtlinie gab es keine Mutagenese-Verfahren, die von der Ausnahme ausgeschlossen werden sollten. Krämer schreibt:

»It is difficult to imagine that the EU, when it adopted Directive 2001/18 had anything else in mind than the random mutagenesis methods which existed at that time. In other words, the term ›mutagenesis‹ in Directive 2001/18 meant to exempt the random mutagenesis methods.«

Der Generalanwalt nennt diesen Schluss eine »statische« Lösung und kritisiert sie als »originalistischen Ansatz zur Rechtsauslegung, der auf dieser Seite des Atlantiks nicht häufig anzutreffen« sei (Abs. 100). Das ist eine Anspielung auf den Originalismus[7], der sich in den USA als Methode zur Auslegung der Verfassung breit macht. Es geht dabei nicht um den Gegensatz von subjektiver und objektiver Auslegungsmethode, sondern um eine interne Differenzierung bei der subjektiven Auslegung, die den Umgang mit dem sozialen und technischen Wandel betrifft, den der Normgeber noch nicht bedacht hat. Der GA unterscheidet insoweit zwischen statischer und dynamischer Auslegung. Nur wer der Auslegungstheorie des Originalismus anhängt, kann vorliegend allein aus der Historie schließen, dass die Ausnahme allein für die beim Erlass der Norm bereits bekannten Methoden der Mutagenese-Züchtung Geltung hat.

Doch auch, wenn man solchen Originalismus nicht akzeptiert, ist eine restriktive Auslegung der Mutagenese-Ausnahme noch nicht vom Tisch. Krämer bestärkt seine subjektiv-historische Auslegung durch eine teleologische. Dazu bezieht er sich auf das Vorsorgeprinzip, wonach die zur Zeit der Entstehung der Richtlinie noch unbekannten Verfahren vorsorglich inhibiert werden müssten. Zum Vorsorgeprinzip hatte der Generalanwalt geschrieben: »Schönheit liegt im Auge des Betrachters.« (Abs. 68). Wer nicht ganz so skeptisch ist, staunt aber doch, wie Krämer und der EUGH mit dem Vorsorgeprinzip umgehen.

Unter Prinzipien kann man nicht subsumieren. Die Argumentation mit Prinzipien muss immer in eine Abwägung münden. Krämer erspart sich diese Abwägung durch ein weiteres historisches Argument. Er referiert den Streit um die Zulassung des insektenresistenten BT-Mais[8], um die Bedeutung des Vorsorgeprinzips hervorzuheben. Die Zulassung des genveränderten Mais wurde 1998 von der Kommission gegen die Mehrheit der Mitgliedsstaaten durchgesetzt. Über eine Öffnungsklausel dürfen die Länder den Anbau dennoch verbieten. Davon hat die Mehrheit, u. a. Deutschland, Gebrauch gemacht. Die Freisetzungsrichtlinie, so Krämer, habe zum Ziel gehabt, der Ablehnung der Gentechnik im Publikum Rechnung zu tragen und dafür hohe Sicherungsstandards gesetzt. Deshalb müsse sich das Vorsorgeprinzip nun auch bei der Auslegung der Richtlinie durchsetzen.

Es ist kaum der Sinn des Vorsorgeprinzips, die von zahlreichen NGOs gepflegten Gefühle des Publikums zur Geltung zu bringen.[9] Wenn die Politik das Vorsorgeprinzip verbiegt, indem sie auf die Risikoakzeptanz der Wähler abstellt, so muss man das zur Kenntnis nehmen. Von unabhängigen Gerichten und Juristen, die Wissenschaftlichkeit für sich in Anspruch nehmen, darf man erwarten, dass sie erörtern, was im konkreten Falle im Sinne des Vorsorgeprinzips erforderlich ist. Der einzige Gesichtspunkt, der hier auftaucht, besagt, dass das Genome-Editing sozusagen einen Quantensprung hinsichtlich der Möglichkeiten der induzierten Mutagenese[10] bedeutet. Dieser Gesichtspunkt bleibt aber einseitig, wenn nicht auch der von den Befürwortern der CRISPR/Cas9-Methode behauptete Qualitätssprung bedacht wird. Krämer gibt sich damit zufrieden, dass es erforderlich sei, das Publikum zu beruhigen, dem er anscheinend eine Differenzierung zwischen verschiedenen Methoden der grünen Gentechnik nicht zutraut. Damit erspart er sich eine Risikoanalyse für das Genom-Editing.

Freilich will auch der Generalwalt keine Risikoanalyse zur Ausfüllung des Vorsorgeprinzips. Unter Verweis auf die Rechtsprechung des EUGH führt er aus, »eine korrekte Anwendung des Vorsorgeprinzips [erfordere] erstens die Bestimmung der möglicherweise negativen Auswirkungen der betreffenden Stoffe oder Lebensmittel auf die Gesundheit und zweitens eine umfassende Bewertung des Gesundheitsrisikos auf der Grundlage der zuverlässigsten verfügbaren wissenschaftlichen Daten und der neuesten Ergebnisse der internationalen Forschung« (Abs. 49), um am Ende aber einzuschränken, »die Rolle des Gerichtshofs [sei] insoweit zwangsläufig begrenzt. Es [sei] sicherlich nicht seine Aufgabe, wissenschaftliche Argumente zu vergleichen und zu prüfen. Dies [sei] Aufgabe des Unionsgesetzgebers oder der Exekutive.« (Abs. 149)

Insoweit gibt es in der Tat ein Problem. Wenn das Gericht sich auf eine Risikoanalyse einlässt, handelt es sich dann um eine Beweisaufnahme oder ist das Gericht frei, alle vorhandenen Erkenntnismittel heranzuziehen? Jedenfalls die obersten Gerichte tun insoweit, was sie wollen und für sinnvoll halten. Für das Bundesverfassungsgericht sei auf die schon ältere Arbeit von Philippi verwiesen.[11] Wie der EUGH mit solchen Fragen umgeht, zeigt unser Fall:

»Wie das vorlegende Gericht im Wesentlichen hervorhebt, könnten sich die mit dem Einsatz dieser neuen Verfahren/Methoden der Mutagenese verbundenen Risiken aber als vergleichbar mit den bei der Erzeugung und Verbreitung von GVO durch Transgenese auftretenden Risiken erweisen. Aus den Angaben, über die der Gerichtshof verfügt, ergibt sich somit zum einen, dass mit der unmittelbaren Veränderung des genetischen Materials eines Organismus durch Mutagenese die gleichen Wirkungen erzielt werden können wie mit der Einführung eines fremden Gens in diesen Organismus, und zum anderen, dass die Entwicklung dieser neuen Verfahren/Methoden die Erzeugung genetisch veränderter Sorten in einem ungleich größeren Tempo und Ausmaß als bei der Anwendung herkömmlicher Methoden der Zufallsmutagenese ermöglicht.«

Eine eigenständige Bewertung des Risikos, dem es vorzubeugen gilt, findet nicht statt. Seit 1982 hat die Europäische Kommission über 300 Mio. EUR in die Forschung zur biologischen Sicherheit von GVO investiert.[12] Kein Wort davon in einem der drei Texte. Interdisziplinarität = Fehlanzeige.

Da man nicht annehmen darf, dass so hoch qualifizierte Juristen, wie sie im und um den EUGH herum tätig werden, mit der hier naheliegenden Interdisziplinarität überfordert sind, werden sie wohl mit dem Generalanwalt die Ansicht vertreten, dass mangels ausreichenden Risikowissens die Einschätzung des Risikos dem demokratischen Gesetzgeber und der von ihm ermächtigten Exekutive überlassen werden müsse. Exekutive war in diesem Fall der Premierminister, der es abgelehnt hatte, ein Moratorium für die Einführung herbizidtoleranter Pflanzensorten, die durch Mutagenese gewonnen wurden, auszusprechen EUGH Abs. 20) und der seine Entscheidung vor dem EUGH verteidigte. Der vorlegende Conseil d’État hatte ausgeführt, es »sei unmöglich, mit Sicherheit festzustellen, ob und in welchem Umfang die neuen herbizidresistenten Sorten Risiken für die Umwelt und die Gesundheit von Mensch und Tier darstellten, da die bislang einzigen Risikobewertungen im Rahmen des Genehmigungsverfahrens für das Inverkehrbringen der Pflanzenschutzmittel stattgefunden hätten, gegen die diese Sorten resistent gemacht worden seien« (EUGH Abs. 23). Wenn das Gericht auf eine eigenständige Bewertung verzichtet, dann verwirft es die Risikoeinschätzung der Exekutive grundsätzlich nur, wenn sie auf Verfahrens- und offensichtlichen Beurteilungsfehlern beruht.[13] Von solchen Fehlern ist hier aber nicht die Rede.

Ein Prinzip kommt selten allein. Mit dem Vorsorgeprinzip könnte ein Innovationsprinzip konkurrieren. Anders als das Vorsorgeprinzip ist es in den Verträgen nicht besonders vereinbart. Allerdings nennt Art. 39 Abs. 1 AEUV als Ziel der gemeinsamen Agrarpolitik die Produktivität der Landwirtschaft durch Förderung des technischen Fortschritts, und aus Art. 179 AEUV kann man herauslesen, dass wissenschaftlicher und technischer Fortschritt und die Wettbewerbsfähigkeit der Industrie zu den Zielen der EU gehören. Aktuell wird diskutiert, ob ein als solches deklariertes Innovationsprinzip eingeführt werden sollte.[14] Vom EUGH war unter diesen Umständen eine Nennung des Innovationsprinzips mangels rechtlicher Dignität nicht zu erwarten. Aber auch ohne formales Gegenprinzip hat das Vorsorgeprinzip immanente Schranken. Sie wären mit einem Innovationsprinzip sogar noch zu eng markiert. Risikovorsorge verlangt eine Abwägung mit positiven sozialen, technischen und wirtschaftlichen Effekten. Eine solche »Vergesellschaftung«[15] finde ich in keinem der drei Texte.

In seinem Vortrag meinte Krämer immerhin, ein praktischer Bedarf für die neuen Züchtungsmethoden sei nicht gegeben, denn die Ernährung der Weltbevölkerung sei kein Produktions- sondern ein Verteilungsproblem. Das Argument als solches mag zutreffen. Aber da eine Lösung des Verteilungsproblems nicht in Sicht ist, muss man wohl auch das Produktionsproblem anpacken. Den Befürwortern der grünen Gentechnik geht es allerdings nicht nur um eine quantitative Ausweitung der Produktion, sondern auch oder sogar in erster Linie um deren Nachhaltigkeit, weil sie die Möglichkeit des Verzichts auf Herbizide und Insektizide und auf eine CO2-generierende Bodenbearbeitung sehen. Es geht ferner um eine Verbesserung der sozialen Situation der Produzenten und der Konsumenten und qualitative Verbesserung der Ernährung. Für Krämer haben die Stimmen aus der Wissenschaft jedoch kein Gewicht, denn letztlich gehe es um Verwertungsinteressen, und auch die Wissenschaft werde weitgehend von der Wirtschaft finanziert. Dieses Argument machte er in seinem Vortrag so stark, dass ihm der SPD-MdB entgegenhielt, die Dinge seien doch wohl komplexer.

In seinem Votum hatte Krämer auf die Gentechnikdebatte verwiesen, die dem Erlass der Richtlinie vorausgegangen war. Im Vortrag bedauerte er, dass es aktuell zum Thema Genome-Editing in Deutschland keine große Diskussion gebe. Er verglich das Genome-Editing mit der Erzeugung von Hormonfleisch, ohne insoweit zwischen den verschiedenen Anwendungen zu differenzieren, und meinte, unter seinen Zuhörer sei keiner bereit, genveränderten Lachs zu essen. Mich hatte er dabei nicht im Blick, und Röspel erwiderte, das Publikum werde seine Meinung schnell ändern, wenn der Gen-Lachs 50 c billiger sei.

Was folgt aus alledem? Prinzipienjurisprudenz ist die neue Begriffsjurisprudenz. Man legt hinein, was man herausholen möchte. Was herausgeholt werden soll, wird aber nicht vor Gericht, sondern in anderen Foren ausdiskutiert. Dort läuft die organisierte Zivilgesellschaft der institutionalisierten Rechtswissenschaft den Rang ab.[16] So wird das Recht politisch.

______________________________________________

[1] Einen Überblick über den Diskussionsstand vor dem Urteil geben Thorben Sprink/Dennis Eriksson/Joachim Schiemann/Frank Hartung, Regulatory hurdles for genome editing: process- vs. product-based approaches in different regulatory contexts, Plant Cell Reports 35 , 2016, 1493-1506.

[2] The Genome Editing Technique Is Covered by Directive 2001/18. Comment on Advocate Bobeks Opinion in case C-528/16. Vorausgegangen war 2015 ein Gutachten im Auftrag von sieben NGO mit dem Titel »Legal Questions Concerning New Methods for Changing the Genetic Conditions in Plants«. Bereits 2013 hatte Krämer für Testbiotech ein umfangreiches Gutachten über die Bedeutung des Vorsorgeprinzips für den Umgang mit genetisch modifizierten Organismen erstattet (Genetically Modified Living Organisms and the Precautionary Principle).

[3] Die Bestimmung lautet: »Genetisch veränderte Sorten im Sinne des Artikels 2 Absätze 1 und 2 der Richtlinie 90/220/EWG dürfen nur zugelassen werden, wenn alle entsprechenden Maßnahmen getroffen wurden, um nachteilige Auswirkungen auf die menschliche Gesundheit und die Umwelt zu vermeiden.«

[4] Auch die Verordnung (EG) Nr. 1830/2003 über die Rückverfolgbarkeit und Kennzeichnung von genetisch veränderten Organismen hätte hier genannt werden können, denn sie verweist für die Definition von GVO auf die Freisetzungsrichtlinie.

[5] Z. B. von Test Biotech.

[6] Lars Fischer, Der lange Schatten der Ideologien, Spektrum – Die Woche 30/2018.

[7] Vgl. dazu Lawrence B. Solum, What is Originalism?, SSRN 2011 Nr. 1825543; ders., Surprising Originalism, SSRN 2018 Nr. 3175412; ders., Originalism versus Living Constitutionalism, SSRN 2019 Nr. 3324264.

[8] BT steht für ein Protein, das aus dem Bacillus Thurigensis gewonnen und gentechnisch so in den Mais eingebaut wird, dass er gegen Insekten resistent wird.

[9] Die Wahrnehmung ökologischer Risiken wird kommunikativ erzeugt (»konstruiert«) und ist erst in zweiter Linie von den objektiven Verhältnissen bestimmt (Rainer Grundmann, Wo steht die Risikosoziologie?, Zeitschrift für Soziologie 28, 1999, 44-59, S. 54). Interdisziplinäres zur Risikowahrnehmung hat Werner Heun zusammengestellt (Staatliche Risikosteuerung und Verfassung, RW 2, 2011, 376-399, S. 386f).

[10] Das besagt der Übersichtsartikel von Katharina Kawall, New Possibilities on the Horizon: Genome Editing Makes the Whole Genome Accessible for Changes, Frontiers in Plant Science 10, 2019, Artikel 525, 10 S.

[11] Klaus Juergen Philippi, Tatsachenfeststellungen des Bundesverfassungsgerichts, 1971.

[12] Pressemitteilung der Kommission, Stand vom 19. 2. 2018.

[13] Wolfgang Köck, Die Entwicklung des Vorsorgeprinzips im Recht – ein Hemmnis für Innovationen zum nachhaltigen Wirtschaften?, in: Bernd Hansjürgens/Ralf Nordbeck (Hg.), Chemikalienregulierung und Innovationen zum nachhaltigen Wirtschaften, 2005, 85-120, S. 113, mit Nachweisen aus der Rspr. de EUGH.

[14] Arnim von Gleich/Ulrich Petschow, Aktuelle Diskussion um die Einführung eines Innovationsprinzips und das Verhältnis zum Vorsorgeprinzip, Kurzstudie im Auftrag des NABU, 2017.

[15] De Ausdruck übernehme ich hier kontextfrei von Dan Wielsch, Die Vergesellschaftung rechtlicher Grundbegriffe, ZfRSoz 38, 2018, 304-337.

[16] Dazu der eindrucksvolle Bericht von Frank Pergande, Eine Saat geht auf. Unsere Gesellschaft wird immer grüner. Perfekt organisierte Verbände haben viel dafür getan, FamS vom 30. 6. 2019.

Ähnliche Themen

Interdisziplinarität. Vor einem neuen Buch

Bevor ich mich von dem neuen Buch von Christian Boulanger, Julika Rosenstock und Tobias Singelnstein über »Interdisziplinäre Rechtsforschung«[1] einnehmen lasse, will ich meine eigene Position festhalten.

»Alle reden von Interdisziplinarität aber keiner tut es« (Veronika Fuest). Aber jedenfalls passen sich alle an, denn sie stehen unter dem Diktat der für die Wissenschaftsorganisation und Finanzierung zuständigen Instanzen, die bei praktisch allen Mittelanträgen, Akkreditierungen oder Evaluationen im Wissenschaftssystem Interdisziplinarität als Kriterium verwenden, vermutlich auch, weil dieses Kriterium einfacher zu handhaben ist als Qualität in der Sache.

Natürlich gibt es gute Gründe für die Forderung nach Interdisziplinarität. Wissenschaft hat sich in einer langen Geschichte in Disziplinen organisiert. Den Anfang machte die mittelalterliche Universität mit ihren vier Fakultäten, den Artes Liberales, Recht, Theologie und Medizin. Seit dem 18. Jahrhundert ist die Zahl der Disziplinen gewachsen. Im 20. Jahrhundert häuften sich die Spezialisierungen. Einen Eindruck von der Fülle der Fächer vermittelt die »Fachsystematik der Deutschen Forschungs-gemeinschaft«. Die historisch verfestigten Disziplingrenzen, so die Befürchtung, hindern die Wissenschaft daran, die Probleme der modernen Welt zu verstehen, denn die Probleme halten sich nicht an Fächergrenzen. Vielmehr hängt in der Welt (fast) alles mit allem zusammen.

In Deutschland startete die Diskussion um Interdisziplinarität in den Dekaden der Universitätsneugründungen nach 1960. In Bochum wurden alle 17 Fakultäten auf einem Campus angesiedelt in der Hoffnung, die räumliche Nähe werde zu sachlicher Kooperation führen. Ähnlich wurden die Universitäten in Bielefeld – hier unter der Ägide von Helmut Schelsky – und in Konstanz – dort mit Ralf Dahrendorf als Vordenker – daraufhin geplant, die Disziplinen zur Zusammenarbeit anzuhalten. Ein Erbe aus dieser Zeit ist das Zentrum für Interdisziplinäre Forschung in Bielefeld.

Von Anfang an war und ist Interdisziplinarität in erster Linie ein Problem der Geistes- und Gesellschaftswissenschaften. Die MINT-Fächer haben damit weniger Schwierigkeiten, weil sie mit einem relativ einheitlichen Wissenschaftsverständnis zur Sache gehen. Die inzwischen auch bei uns so genannten Humanities dagegen kämpfen und konkurrieren vorab um ihr Wissenschaftsverständnis. Die außerhalb der Rechtswissenschaft gewachsene postmoderne Epistemologie hat disziplinübergeordnete Vorstellungen von Rationalität oder gar Objektivität und Wahrheit durch Perspektivismus ersetzt. Die Konsequenz ist weniger ein toleranter und kooperativer Multiperspektivismus, sondern eher ein Konkurrenzkampf um die Durchsetzung der eigenen, für überlegen angesehenen Perspektive. So wurde die Rechtswissenschaft einst aufgefordert, sich zur Sozialwissenschaft zu transformieren. Jetzt reklamiert die Kulturwissenschaft alle Themen und Bereiche für sich. Künftig wird vielleicht eine auf der Basis künstlicher Intelligenz erneuerte Kybernetik übernehmen wollen.

Wie keine andere Disziplin sieht sich die Rechtswissenschaft der Forderung nach Interdisziplinarität ausgesetzt. Die Empfehlungen des Wissenschaftsrats zu den Herausforderungen der rechtswissenschaftlichen Forschung von 2012 gehen von der Vorstellung einer abgekapselten Jurisprudenz aus, wenn sie »die Öffnung der Rechtswissenschaft in das Wissenschaftssystem« für notwendig halten. Andere Disziplinen bleiben von einem so massiven Öffnungsimperativ verschont. Das hat viel damit zu tun, dass die Rechtswissenschaft in der Außenansicht weitgehend auf Rechtsdogmatik reduziert wird. Der Angriffspunkt für die Interdisziplinaritätsforderung ist damit letztlich das Werturteilsproblem, dass sich für die Rechtsdogmatik nicht ausräumen, sondern nur einhegen lässt. Deshalb erstreckt sich diese Forderung an die Jurisprudenz praktisch nur auf die so genannten Nachbarwissenschaften, die alle gemeinsam haben, dass sie sich in irgendeiner Weise mit Werten oder Wertungen befassen. Nachbarwissenschaften in diesem Sinne sind mehr oder weniger alle Geistes- und Gesellschaftswissenschaften. Sie alle könnten für die Einhegung des Werturteilsproblems hilfreich sein, solange sie das Problem als solches akzeptieren und nicht das Recht abschaffen wollen.

»Abschaffung des Rechts?« war das Thema des vierten Kongressses der deutschsprachigen Rechtssoziologie-Vereinigungen vom 13-18. September 2018 in Basel. Karl Marx sah am Ende aller Klassenkämpfe den Staat und mit ihm das Recht überflüssig werden. In Basel überlegte man, ob das Recht soziologisch aufzuheben oder in funktionale Kybernetik zu überführen sei. Nichts wird so heiß gegessen, wie es auf der Speisekarte steht. Die Rechtswissenschaft ist für die Nachbarwissenschaften schwer genießbar, denn sie hat sich eine dicke Schale von Grundlagen- und Bindestrichfächern zugelegt. Sie reichen von der Rechts-Philosophie über die Rechts-Geschichte, die Rechts-Soziologie und die Rechts-Anthropologie bis hin zu Rechts-Ökonomik und zur Gerichts-Medizin. So scheint die Jurisprudenz vor Fressfeinden geschützt zu sein, weil sie sich die Nachbarwissenschaften ins Haus geholt hat. Die Kooperation ist allerdings immer (nur) bilateral, und die Fremddisziplin kommt stets erst nach dem Bindestrich. So bewahrt die Jurisprudenz ihre Identität. Man muss deshalb darüber streiten, ob die Institutionalisierung der Bindestrichfächer den Anspruch von Interdisziplinarität erfüllt.

Als Streithelfer drängt sich Luhmann mit der Unterscheidung von Reflexionstheorien und Beobachtertheorien auf. Reflexionstheorien bieten eine Selbstbeschreibung des Systems, Beobachtertheorien eine Fremdbeschreibung. Von Reflexionstheorien heißt es, sie seien unvermeidlich affirmativ, sie wiederholten auf einem elaborierten Niveau, was sie beschrieben, und machten sich damit die positive Selbsteinschätzung des Systems zu eigen.[2] Rechtsinterne (Selbst-)Beobachtung kann sich danach eine Welt ohne Recht nicht vorstellen. Als Grund wird angegeben, dass die Selbstbeschreibung der Funktionssysteme stets an deren Code ausgerichtet sei, die Selbstbeschreibung des Rechts also an dem Code von Recht und Unrecht, während die Fremdbeschreibung den Wissenschaftscode von wahr und unwahr verwende. In der Tat, Kriminologen, Rechtshistoriker und Rechtsoziologen usw. usw. wollen das Recht nicht abschaffen, sondern verbessern. Muss man ihnen deshalb das Prädikat der Interdisziplinarität verweigern? Ich schwanke hin und her, neige aber dazu, die Bindestrichfächer nicht per se für interdisziplinär zu halten. Jedenfalls die Rechtssoziologie ist für mich ein Zweig der Soziologie, die sich auf das Recht spezialisiert hat. Sie beobachtet das Recht von einem externen Standpunkt aus. Sie hat zwar den gleichen Gegenstand wie die Jurisprudenz, sie stellt andere Fragen und arbeitet mit anderen Methoden.[3] Aber ich kann dem üblichen Sprachgebrauch, der die Bindestrich-Fächer vorbehaltlos als interdisziplinär einordnet[4], nicht entgehen. Es wäre zu rigoros, ganz auf Luhmanns Unterscheidung abzustellen. Der Übergang von der Fremdbeobachtung zur Selbstbeobachtung ist wohl doch fließend. Interdisziplinarität wird auf verschiedenen Ebenen geübt, die sich nach dem Abstand zu der letztlich jedem Recht innewohnenden Wertung ordnen lassen.

Interdisziplinarität in diesem abstuften Sinne ist in weitem Umfang juristische Praxis. Am größten ist der Abstand auf der forensischen Ebene, also bei der Beweisaufnahme. Hier ist Interdisziplinarität selbstverständlich. Kriminalistik, Gerichtsmedizin und Rechtspsychologie haben sich darauf spezialisiert. Mediziner, Ingenieure, Rechnungsprüfer, Sozialarbeiter und Pädagogen sind als Sachverständige gefragt. Freilich würden die meisten Beobachter diese Ebene gar nicht als interdisziplinär akzeptieren, weil die Fremddisziplinen nur niedere Dienste leisten. Ähnliches gilt für die Inanspruchnahme der Informationstechnologie, mit der juristisches Wissen bereitgestellt wird.

Wo immer Recht anzuwenden oder neu zu entwerfen ist, ist Wissen über den Objektbereich dieses Rechts erforderlich, und zwar auf zwei Stufen. Auf der ersten Stufe verweisen schon viele Rechtsbegriffe auf ein bestimmtes Weltwissen. Ist z. B. über die Transparenz einer Vertragsklausel zu urteilen, so möchte man wohl wissen, wie denn das Publikum die Klausel versteht. Hier lässt sich eine ganze Batterie von empirischen Methoden einbringen.[5] Auf der zweiten Stufe geht es um Folgenberücksichtigung. Aus den Nachbardisziplinen stehen dafür etwa Kriminologie und Verwaltungswissenschaft, Rechtswirkungsforschung und Evaluation, also Rechtstatsachenforschung in einem sehr weiten Sinne, bereit. Hier kommen, etwa wenn es um den Klimawandel geht, auch die MINT-Fächer ins Spiel. (Nicht nur) hier beginnt die Besserwisserei der Fremddisziplinen zu stören. An vielen Stellen wäre ein ignoramus et ignorabimus ehrlicher.[6]

Technologisch wird es, wenn bei Gericht und vor allem für die Gesetzgebung Prognoseentscheidungen zu treffen sind. Die Qualität von Werturteilen hängt zu einem erheblichen Teil von der Optimierung ihrer Wissensbasis ab.

Noch relativ vordergründig und technisch sind auch die Anstrengungen der Sozialpsychologie, die der Jurisprudenz bei der Aufklärung von Rationalitätslücken zur Seite springt. Dabei steht der ganze Katalog von Heuristiken und kognitiven Täuschungen[7] und von so genannten Alltagstheorien zu Debatte. Auch das, was sich über Entscheidungstheorie sagen lässt, wird hier eingebracht, etwa die Einflüsse, die von Gruppendynamik, Organisationsformen und Organisationskultur ausgehen.

Näher am Werturteilsproblem ist die Interdisziplinarität auf der Methodenebene. Zu Kooperation bieten sich alle Disziplinen an, die sich mit der Kommunikation und Interpretation von Symbolen und Texten befassen. Linguistik, Medientheorie, Hermeneutik, Literaturwissenschaft[8] und Ästhetik[9] sind gefragt. Auch insoweit geht es zunächst nur um die Einhegung von Werturteilen. Hier wäre am ehesten eine fächerübergreifende Integration von Methoden zu erwarten.

Die Wertungen des Rechts gehen in den Zustand der Gesellschaft ein und sind ihrerseits eine Reaktion auf diese Gesellschaft. Zu dem Zustand der Gesellschaft gehören auch interne und externe Vorstellungen über eine gerechte Verteilung von Rechten und Pflichten. Solche Vorstellungen sind nie einheitlich. Sie ändern sich laufend, und sie werden geändert, primär etwa durch Innovationen aller Art, durch Krisen und Katastrophen, sekundär durch Wissenschaft, die die realen Zustände beschreibt, und durch soziale Bewegungen, die bestimmte Zustände als Ungerechtigkeit anprangern, und die darin wiederum von Wissenschaftlern bestärkt werden. Hier liegt irgendwo der schwer bestimmbare Übergang vom operativen zum Reflexionswissen.

An dieser Stelle kann Interdisziplinarität zum Problem werden, wenn und weil es an einem einheitlichen Wissenschaftsverständnis fehlt. Es treten epistemologische Dissonanzen auf ähnlich denen, die Fuest zwischen Natur- und Gesellschaftswissenschaften beobachtet hat. Zwar haben die Juristen Verständnis für den interpretativen Ansatz der Soziologie und für qualitative Methoden. Ihnen fehlt jedoch weitgehend Verständnis für den radikalen Konstruktivismus und den damit verbundenen Perspektivismus. Trifft dann der Perspektivismus der Nachbarwissenschaften auf die Perspektive des Rechts, wächst aus Interdisziplinarität die Forderung an die Rechtswissenschaft, via Reflexion ihr Selbstverständnis zu revidieren. Dann geht es um Kompetenz oder gar um Macht. In dieser Situation beruft sich die Rechtswissenschaft auf die im Recht in seiner Gesamtheit gespeicherten Werte, auf den Eigenwert des Rechts, verhält sich also grundsätzlich affirmativ, und ist nur für partielle Änderungen offen, während andere Disziplinen die Werturteile des Rechts mit dem Anspruch ihrer Wissenschaftlichkeit ersetzen wollen.

Die Sozialwissenschaften haben vor bald 100 Jahren einmal die Vorstellung eines cultural lag eingebracht, der kulturellen Verspätung des Rechts. Dass dieses Nachhinken des Rechts sozusagen zu dessen Wesen gehört, wollen sie aber nicht akzeptieren. Umgekehrt kommen aus den Nachbarwissenschaften Vorstellungen, die als normative Rückschaufehler erscheinen können, weil sie als quasi apriorische Erkenntnis anbieten, was sich erst entwickelt hat. Das gilt etwa für den Feminismus, wenn er nicht in Rechnung stellt, dass es eigentlich die Modernisierung ist, die das traditionelle Geschlechterarrangement obsolet macht (und erst sekundär Vorstellungen von Geschlechtergerechtigkeit).

Rechtstheoretisch haben van Klinck und Taekema die Möglichkeiten und Grenzen von Interdisziplinarität im Recht aufgearbeitet.[10] Praktisch funktioniert die Kooperation der Rechtswissenschaft mit ihren Nachbarwissenschaften ganz gut, auch wenn immer mehr davon gefordert wird. Der Ertrag auf der höheren ganzheitlichen Ebene bleibt allerdings in der Schwebe. Das Standardvokabular beschreibt den Gewinn als besseres Verständnis, als Stärkung des Reflexionsvermögens und der Kritikfähigkeit. Schlüsselbegriffe sollen verschiedene Disziplinen verbinden, indem sie auf gemeinsame Aufmerksamkeits- und Arbeitsfelder verweisen. Deshalb spricht man auch gleichbedeutend von »interdisziplinären Verbundbegriffen«, »Kontaktbegriffen«, »Brückenbegriffen«, »Verweisungs-« oder »Vermittlungsbegriffen«. Wer es elaborierter mag, findet dafür verheißungsvolle Formeln.

»Die Sachstrukturen in der Umwelt des Rechtssystems müssen als Fremdreferenz in das autonome System wiedereingeführt werden, ohne das Postulat der Selbstregulierung der Abhängigkeiten und Unabhängigkeiten des Systems aufzugeben: Interne und externe Informationen wären über die Verknüpfung von Selbstreferenz und Fremdreferenz im System in ein ›überlappendes Netzwerk‹ von Rechtsargumenten zu übersetzen.« (Vesting, Rechtstheorie 2007 S. 121 Rn 232.)

Das alles bietet nicht mehr als Umschreibungen der »Irritationen«, von denen wir durch Luhmann wissen, dass sie durch »strukturelle Kopplungen« ausgelöst werden. Wichtiger scheint mir eine Einsicht aus der Verwendungsforschung[11] zu sein: Was die fremddisziplinäre Beobachtung des Rechts hervorbringt, wirkt nicht direkt, sondern diffundiert in Dekaden auch in die Rechtsdogmatik.

_________________________________________________________

[1] Springer Verlag. Angekündigt für Januar 2019.

[2] Dazu André Kieserling, Selbstbeschreibung und Fremdbeschreibung, 2004, 58ff; Stefan Kühl, Das Theorie- Praxis- Problem in der Soziologie, Soziologie 32, 2003, 7-19, S. 10.

[3] Vgl. Rechtssoziologie-online, § 1 Gegenstand und Methode der Rechtssoziologie.

[4] So nutzt Susanne Baer »Rechtssoziologie« als plakativen Titel ihres Lehrbuchs (2. Aufl. 2015). Nach dem Untertitel soll es sich um eine »Einführung in die interdisziplinäre Rechtsforschung« handeln.

[5] Immer wieder aktuell wird z. B. die Frage, wie das Publikum bestimmte Symbole oder Texte versteht (Alexander Stöhr, Die Bestimmung der Transparenz im Sinne von § 307 Abs. 1 S. 2 BGB. Ein Plädoyer für eine empirische Herangehensweise, Archiv fuer die civilistische Praxis 216, 2016, 558-583; Omri Ben-Shahar/Lior Strahilevitz, Interpreting Contracts via Surveys and Experiments, SSRN 2017, 2905873; Hanjo Hamann/Leonard Hoeft, Die empirische Herangehensweise im Zivilrecht. Lebensnähe und Methodenehrlichkeit für die juristische Analytik?, Archiv fuer die civilistische Praxis 217, 2017, 311-336.)

[6] Vgl. Marco Wehr, Die Weltmeister im Wohlfühlen, FAZ vom 29. 12. S. 30.

[7] Bahnbrechend Mark Schweizer, Kognitive Täuschungen vor Gericht, 2005.

[8] Dazu auf Rsozblog Ein Carl Schmitt der Literaturwissenschaft und die Rechtstheorie: Hans Robert Jauß und die Folgeeinträge.

[9] Klaus F. Röhl/Hans Christian Röhl, Zur Ästhetik des Rechts, SSRN 2018, https://ssrn.com/abstract=3191176.

[10] Bart van Klink/Sanne Taekema, A Dynamic Model of Interdisciplinarity, Limits and Possibilities of Interdisciplinary Research into Law, SSRN 2008, Abstract 1142847.

[11] Das ist die These vom These vom Verschwinden der Soziologie in der Praxis, die ich von Ulrich Beck und Wolfgang Bonß gelernt habe (Vgl. Röhl, Zur Bedeutung der Rechtssoziologie für das Zivilrecht, in: Horst Dreier (Hg.), Rechtssoziologie am Ende des 20. Jahrhunderts, 2000, 39-85).

Ähnliche Themen

Interdisziplinarität wird oft enttäuscht

Mit einem Kapitel zur Ästhetik des Rechts[1] haben wir versucht, den Juristenblick interdisziplinär zu weiten. Dabei sind wir u. a. auf das Judiz als das Geschmacksurteil der Juristen gestoßen. Bei Savigny und Ihering war vom »Takt« die Rede, den sich Juristen durch lange Übung erwerben, und mit dessen Hilfe sie komplizierte Zusammenhänge ordnen. Heute redet man lieber über Klugheit[2] oder Angemessenheit[3].

Als ästhetische Kategorie kommt der Sinn für Angemessenheit in Betracht. Das Prinzip der Angemessenheit, wie es von Klaus Günther entwickelt wurde, bewegt sich im Bereich der Reflexion. Es verlangt nach einem »Anwendungsdiskurs«, der eine »Angemessenheitsargumentation« zu der Frage entwickeln soll, ob eine allgemeine Regel unter Berücksichtigung aller Umstände auf den Einzelfall passt. Die eher unreflektierte Kompetenz, in Situationen mit wertenden Aspekten eine »angemessene« Entscheidung zu treffen, ist dagegen das Thema von Landweer. Es liegt, so möchte man sagen, in der Natur der Sache, dass sie aus dem Aspekt der Angemessenheit keine subsumtionsgeeigneten Maßstäbe ableiten kann.

Die verschiedenen Ansätze haben jenseits der erfahrungsgesteuerten Routine gemeinsam, dass es sich um Strategien des Umgangs mit komplexen Situationen handelt, die der Handelnde nur unvollständig analysieren kann. Es geht also um undeklarierte Methoden des Umgangs mit der von Simon so getauften bounded rationality. Psychologen bieten dafür einen Katalog von Heuristiken und kognitiven Täuschungen an. Soziologen bemühen eine Theorie der Frame-Selection, die eine »Vorstrukturierung des Handelns durch kognitiv-emotional verankerte Schemata« zugrunde legt.[4] Man würde nur gerne genauer wissen, wie diese Frames aussehen und wie sie entstehen. Hier wirken anscheinend die evolutionär entstandenen Schemata, die mit der Sozialisation allgemein erworbenen Frames und ihre spezifische Prägung durch die berufliche Praxis zusammen. Aber die Benennung operativer Strategien speziell der juristischen Praxis ist bisher nicht gelungen. Dagegen gibt es auf der Makroebene allerhand Vermutungen über implizites Wissen, kulturelle Codes, Natürlichkeits- und Normalitätsvorstellungen. Dem Juristen helfen sie nicht weiter als schon Savigny und Ihering gelangt waren[5].

Nun bin ich noch einmal dem Hinweis von Kroneberg auf das in der Soziologie geläufige Konzept einer Logik der Angemessenheit (logic of appropriatness) nachgegangen. Der Ertrag ist insofern positiv, als er Juristen in dem Glauben bestärkt, dass da etwas »dran ist«, wenn sie von Judiz usw. reden. Aber solche Affirmation ist wohl nicht Sinn der Interdisziplinarität.

Die »Logik der Angemessenheit« wird als Gegensatz zur der utilitaristischen Logik der Konsequenzen verstanden.[6] Auch ein utilitaristisches Kalkül ist danach eingebettet in einen ideellen und normativen Kontext mit daraus resultierenden Praktiken und entsprechenden »Logiken«, nach denen Akteure ihr Handeln bemessen. Von einer »Logik« kann indessen keine Rede sein.

»… the core intuition is that humans maintain a repertoire of roles and identities, each providing rules of appropriate behavior in situations for which they are relevant. Following rules of a role or identity is a relatively complicated cognitive process involving thoughtful, reasoning behavior; but the processes of reasoning are not primarily connected to the anticipation of future consequences as they are in most contemporary conceptions of rationality. Actors use criteria of similarity and congruence, rather than likelihood and value. To act appropriately is to proceed according to the institutionalized practices of a collectivity, based on mutual, and often tacit understandings of what is true, reasonable, natural, right, and good.«[7]

Was folgt, kann man als Bestätigung der juristischen Hermeneutik lesen. Es muss eben alles an System, Situation und Selbstverständnis angepasst werden oder sein. Über die Maßstäbe der Angemessenheit erfahren wir nur eine Trivialität, nämlich dass eine klare »Logik« der Situation über eine unklare dominiert. Letztlich geht es um eine Differenzierung der Theorie der Rationalwahl. Rational choice als Grundprinzip hat zur Folge, dass die Handlungswahl dem Ziel der möglichst effizienten Nutzenproduktion folgt und deshalb zweckrational die Konsequenzen des Handelns in Rechnung stellt. Normen sind dabei nur Randbedingungen (=Rechnungsposten). Erst wenn die Rechnung unübersichtlich wird – was seine Ursache auch in unklaren Normen haben kann – tritt an die Stelle des Berechnens möglicher Folgen die Frage nach Angemessenheit des Handelns im Hinblick auf die gegebene Situation. »Dabei versucht der Akteur seine Unsicherheit über den Charakter der Situation aufzulösen und zu einer möglichst angemessenen Situationsdefinition zu gelangen.« Es hilft wenig, dass Kroneberg den »Angemessenheitsglauben« mit USinn formalisiert und in seine MFS-Formel (Modell der Frame-Selektion) einstellt. U steht dabei für (Subjective Expected) Utility. Wie die Angemessenheit näher bestimmt werden kann, erfahren wir nicht. So könnte USinn auch für Unsinn stehen.

Nachtrag vom 1. 12. 2020: Mit dem Sinn für Angemessenheit befasst sich erneut Hilge Landweer: Der Sinn für Angemessenheit als Quelle von Normativität in Ethik und Ästhetik, in: Kerstin Andermann/Undine Eberlein (Hg.), Gefühle als Atmosphären, 2011, 57-78, und jetzt wieder: Warum Normen allein nicht reichen. Sinn für Angemessenheit und Rechtsgefühl in rechtsästhetischer Perspektive, in: Eva Schürmann/Levno von Plato (Hg.), Rechtsästhetik in rechtsphilosophischer Absicht, 2020, 63-84. Sie fasst zuzsammen (S. 83):

»1. Angemessenheit ist auf die jeweilige Situation bezogen. Wegen der Abhängigkeit von der Besonderheit der jeweiligen Situation kann sie nicht als Norm expliziert werden, denn Normen gelten übersubjektiv und situationsunabhängig. 2. Dass wir den Begriff ›angemessen‹ sinnvoll verwenden können, weist darauf hin, dass wir ein menschliches Vermögen zur erforderlichen feinkörnigen Wahrnehmung von Situationen unterstellen. Diese Fähigkeit bezeichne ich als ›Sinn für Angemessenheit‹. 3. Der Sinn für Angemessenheit muss für die in einer Situation relevanten Wertungen empfänglich sein und Wertungen vornehmen können. Das verlangt mehr als bloß eine sinnliche und kognitive Wahrnehmung von Sachverhalten; dieses Vermögen muss affektiv fundiert sein.«

_____________________________________________

[1] Klaus F. Röhl/Hans Christian Röhl, Zur Ästhetik des Rechts, SSRN 2018.

[2] Arno Scherzberg, Wird man durch Erfahrung klug?, Internetpublikation, 2008.

[3] Klaus Günther, Der Sinn für Angemessenheit. Anwendungsdiskurse in Moral und Recht, 1988; Hilge Landweer, Der Sinn für Angemessenheit als Quelle von Normativität in Ethik und Ästhetik, in: Kerstin Andermann/Undine Eberlein (Hg.), Gefühle als Atmosphären, 2011, 57-78.

[4] Clemens Kroneberg, Wertrationalität und das Modell der Frame-Selektion, Kölner Zeitschrift für Soziologie und Sozialpsychologie 59 , 2007, 215-239.

[5] Dazu Stephan Meder, Missverstehen und Verstehen. Savignys Grundlegung der modernen Hermeneutik, 2004 (S. 55ff).

[6] James G. March/Johan P. Olsen, Rediscovering Institutions, 1989, S. 160-163; dies, The Institutional Dynamics of International Political Orders, International Organization 52, 1998, 943-969; Hartmut Esser, Soziologie Bd. 5: Institutionen, 2000, S. 92ff.

[7] James G. March/Johan P. Olsen, The Logic of Appropriateness, in: The Oxford Handbook of Political Science 2011, 478-497, S. 479.

Ähnliche Themen

Legal Narratives III: »Von den Fällen, die fallweise im Einzelfall anfallen.«

Unter der Überschrift [1]Mit dem Zitat im Titel dieses Postings überschrieb Konrad Adam seinen Bericht über den Zwanzigsten Deutschen Soziologentag in Bremen 1980. Legal Narratives II habe ich die »Fallerzählungen der Juristen« angesprochen. Diese Darstellung darf so nicht stehen bleiben, denn der juristische Umgang mit Fällen beschränkt sich nicht auf bloße Narration. Juristen bearbeiten ihre Fälle sehr intensiv und sie gewinnen daraus über den Einzelfall hinaus ein enormes Erfahrungsmaterial.

Den Juristen wird immer wieder Resistenz gegen Interdisziplinarität vorgehalten. In den letzten beiden Jahrzehnten hat sich Einiges geändert. Wer einen Drittmittelantrag stellt, wird ihn mindestens aus gesundem Opportunismus auf interdisziplinär frisieren. Nicht wenige Zivilrechtler umarmen inzwischen die Ökonomische Analyse des Rechts, und einige Öffentlich-Rechtler sind auf Luhmann und die Systemtheorie abgefahren. Und wieder andere betätigen sich als »intellektuelle Bastler«. [2]Hubert Treiber, Verwaltungsrechtswissenschaft als Steuerungswissenschaft – eine »Revolution auf dem Papier«?, Kritische Justiz 2007, 328. Aber in der juristischen Praxis ist die Resistenz gegenüber Interdisziplinarität ungebrochen. Ob diese Tatsache beklagenswert und änderungsbedürftig ist oder nicht, darauf will ich jetzt nicht eingehen. Ich will nur eine mögliche Erklärung angeben, die die Immunität/Aversität der Juristen gegenüber fremddisziplinärer Beeinflussung bis zu einem gewissen Grade verständlich macht.
Die Erklärung liegt eigentlich auf der Hand und wird vielleicht gerade deshalb nicht bemerkt. Ich habe sie in der »Allgemeinen Rechtslehre« (S. 649), nachdem mein Mitautor mich darauf hingewiesen hatte, zunächst nur ganz kurz angesprochen: Die Rechtswirklichkeit drängt sich der juristischen Praxis in dem in Rechtsprechung in Schrifttum ausgebreiteten Fallmaterial auf. Die empirische Sozialforschung hat es schwer, der Fülle des Materials, das von Gerichten und Juristen mit großem Aufwand recherchiert, publiziert und regelmäßig auch diskutiert wird, etwas entgegenzusetzen. Es geht ganz einfach um die Fälle, mit denen Anwälte und Richter tagtäglich konfrontiert sind. Jeder Einzelne begegnet ihnen zu Hunderten und zu Tausenden. Sieht man auf Gericht und Anwaltschaft als Institution, sind es Millionen. Das sind nicht nur Zahlen in der Statistik, sondern die Mehrzahl dieser Fälle wird sorgfältig aufbereitet. Von einer solchen Materialfülle können Soziologen und Ethnologen nur träumen. Sie distanzieren sich gewöhnlich von den »Fällen« der Juristen, indem sie das in der Berufspraxis erworbene Wissen als deformiert zurückweisen. Doch solche Kritik ist nur akzeptabel, wenn zuvor das Erfahrungsmaterial der Jurisprudenz auch positiv gewürdigt wurde. Deshalb war es sicher ein Fortschritt, dass sich in Bielefeld am ZiF eine Forschungsgruppe mit dem »Fall als Fokus professionellen Handelns« befasst hat. In der Ankündigung auf der Webseite des ZiF las man:

»… Zum Kern der professionellen Tätigkeit zählen der Umgang und die Arbeit mit ›Fällen‹. Professionelle Arbeit – ob nun die eines Richters, eines klinischen Mediziners oder eines Psychotherapeuten – realisiert sich an Fällen, Fälle bilden den Fokus [3]Das ist mein Unwort des Jahres. professionellen Handelns, bei dem die erworbenen Kenntnisse und Fertigkeiten zur Anwendung kommen. Allerdings – auch dies ist ein konstitutives Merkmal – kann die Intervention des Professionellen nie nach ›Schema F‹ erfolgen, vielmehr befindet sich der professionelle Praktiker immer in einem Spannungsfeld zwischen seinem systematischen, klassifikatorisch geordneten Expertenwissen und den unvermeidbaren Besonderheiten jedes Einzelfalls.
Im Zentrum der geplanten Kooperationsgruppe steht die Frage, wie ein Fall im professionellen Handeln von Medizinern und Juristen konstituiert wird und welche epistemischen, interaktiven und institutionellen Funktionen und Folgen die Ausrichtung auf den Fall für das professionelle Handeln hat. … Der innovative Zugang der Kooperationsgruppe zu dem Thema besteht darin, das Augenmerk zentral auf die interaktiven, sprachlichen und medialen Verfahren zu richten, über die in medizinischen und juristischen Kontexten ein Fall zu einem ›Fall von X‹ gemacht wird.
Eine der Besonderheiten dieser Kooperationsgruppe besteht darin, dass die relevanten Fragen des Forschungsgegenstandes Fallformation an Prozessdaten untersucht werden sollen, die in den verschiedenen Berufsfeldern erhoben worden sind. Neben Gesprächsdaten gehören dazu Gesprächsprotokolle und Notizen, Formulare, Akten, Videoaufzeichnungen von Operationen in einer Klinik u.v.a., die mikroanalytisch bearbeitet und unter den übergeordneten Aspekten systematisiert und ausgewertet werden sollen.«

Dem Antragskauderwelsch, mit dem das Projekt beschrieben wird, lässt sich wenig entnehmen. Ende 2009 gab es noch eine Abschlusstagung. In der Ankündigung erfährt man:

»Auf einer ersten Verallgemeinerungsstufe jenseits der verglichenen Einzelfälle spiegelt sich die Prozessperspektive in der Rekonstruktion relevanter Phasen, die in allen uns vorliegenden Fällen durchlaufen werden.«

Darauf wäre man vielleicht auch ohne den Aufwand eines ZiF-Projekts gekommen.

In Heft 2 der ZiF-Mitteilungen 2010 gibt es nun S. 4-8 einen Abschlussbericht des Projekts. Er wiederholt ausführlich, was wir schon aus Ankündigung wissen. Wir erfahren, dass man sich insgesamt fünf Monate lang mit fünf Fällen aus dem englischen Strafrecht, dem deutschen Zivilrecht, der klinischen Psychiatrie der klinischen Neurologie und der klinischen Chirurgie befasst hat. Weiter heißt es:

»Der Erkenntnisstand des Projekts nach der abschließenden Tagung im September 2009, zu der zahlreiche Experten aus dem In- und Ausland eingeladen waren, lässt sich in zweifacher Weise formulieren: Mit dem Stichwort ›Aktualgenese‹ ist eine Untersuchungsperspektive verbunden, die nach Phasen und Übergängen in der allmählichen Konstitution des Falles sucht. Mit Phasen sollen dabei geordnete Abläufe zur Erledigung relevanter Abläufe bezeichnet werden. Hierzu nur zwei Beispiele: Es ist in allen Datensätzen erkennbar, dass zunächst überhaupt entschieden werden muss, ob das Ereignis, mit dem die institutionellen Akteure konfrontiert werden, ein Fall für sie ist; denn es gibt ja auch die Möglichkeit, die Zuständigkeit zu negieren und an eine andere Instanz zu überweisen.«

Und auch die Fortsetzung klingt wie eine soziolinguistische Paraphrase des Sattelmacher. Was mag ein ausgewachsener Jurist denken, der das liest? Hier noch »der zweite Aspekt aktueller Erkenntnisse«:

»Schaut man Chirurgen während der laparoskopischen Gallenoperation zu, dann erkennt man ihr Bemühen um systematische Reduktion von Kontingenz: Unklare Gewebemengen müssen so bearbeitet werden, dass Strukturen freigelegt werden und Gefäße als solche erkennbar und handhabbar gemacht werden; in der Gruppe ist dafür die Metapher des Präparierens benutzt worden. In den Rechtsfällen hingegen ist beobachtbar und von verschiedenen Autoren herausgearbeitet worden, dass eine der wesentlichen Aktivitäten der professionellen Beteiligten darin besteht, Kontingenz zu erzeugen oder zu erhalten, um das Verfahren möglichst lange offen zu halten; dies hängt ganz offenbar mit der agonalen Grundstruktur der juristischen Bearbeitung von Alltagskonflikten zusammen.«

Ich werde die nächste Gelegenheit nutzen um zu testen, ob sich Juristen mit so aufschlussreichen Ergebnissen von dem Wert interdisziplinärer Arbeit überzeugen lassen. Oder ist das gar nicht der Anspruch der beteiligten Wissenschaftler, meinen sie doch am Ende, ihre Arbeit könne künstlerische Auseinandersetzungen mit dem Thema provozieren? Mit einer Performance haben sie das auf ihrer Abschlussveranstaltung schon einmal probiert. Performing science heißt die Perspektive. Gab es das nicht schon einmal, das Gericht als Theater?

Anmerkungen

Anmerkungen
1 Mit dem Zitat im Titel dieses Postings überschrieb Konrad Adam seinen Bericht über den Zwanzigsten Deutschen Soziologentag in Bremen 1980.
2 Hubert Treiber, Verwaltungsrechtswissenschaft als Steuerungswissenschaft – eine »Revolution auf dem Papier«?, Kritische Justiz 2007, 328.
3 Das ist mein Unwort des Jahres.

Ähnliche Themen

Berichtsforschung IV: Ein Umweg zur Interdisziplinarität der juristischen Arbeit?

Katsh hat schon 1989 in seinem Buch über »The Electronic Media and the Transformation of Law« vorhergesagt, die Flexibilisierung der Wissensbestände durch die elektronischen Medien werde die Disziplingrenzen, die lange durch die gedruckte Rechtsliteratur stabilisiert worden seien, unterminieren. [1]M. Ethan Katsh, The Electronic Media and the Transformation of Law, New York, NY 1989, S. 94-101, 247-265; ders., Law in a Digital World, New York, NY 1995, S. 158, 164 f. Elektronische Medien, die unterschiedslos Informationen aus allen Wissens- und Lebensgebieten vereinigten, seien auf Interdisziplinarität angelegt und würden das Recht wieder stärker für Einflüsse aus dem sozialen Kontext öffnen. Durch Digitalisierung werde die Information flüssig. Sie werde leichter verfügbar, könne ganz unsystematisch abgerufen und relativ einfach neu gemischt werden. Gleichzeitig finde man in demselben Medium, anders als in der klassischen Bibliothek, auch nichtjuristische Informationen aller Art. Allgemein werde eine Kultur entstehen, in der es normal sei, separat generierte und gespeicherte Wissensbestände zusammen zu führen. In der Folge würden Juristen, die gelernt hätten, mit den elektronischen Medien umzugehen, die klassischen Rechtsquellen mit anderen Wissensangeboten kombinieren und so die Grenze zwischen juristischem und außerjuristischem Wissen durchlässig machen. Juristen gerieten damit unter Druck, sich nicht länger allein auf Regeln zu stützen, um relevante von irrelevanten Informationen zu trennen.
Die Technik der digitalen Information ist längst etabliert. Bislang schien es an geeigneten nichtjuristischen Inhalten zu fehlen. Die klassische Sozialforschung ist noch kaum im Netz zu finden. In diese Lücke stößt die Berichtsforschung. Sie könnte der Rechtswissenschaft und der praktischen Jurisprudenz unter Umgehung der Rechtssoziologie und anderer sozialwissenschaftlicher Disziplinen für eine empirische Vergewisserung über den Kontext des Entscheidens dienen. Vermutlich wird die Berichtsforschung auf diesem Wege viele der Funktionen übernehmen, die man bisher der Rechtstatsachenforschung und teilweise auch der Kriminologie als Hilfswissenschaften der Jurisprudenz zugeschrieben hat und die diese Fächer wenig erfolgreich ausgefüllt haben. Hier bahnt sich vielleicht eine neuartige Form der Interdisziplinarität an, die in der Folge des Medienwandels selbsttätig einstellt. Die Verfügbarkeit der Berichte im Internet kommt dem Zeitdruck der Praxis und ihren Schwierigkeiten beim Zugang zu einschlägiger Forschung entgegen. Das Angebot ist inzwischen sehr umfangreich. Vielleicht findet man nicht immer genau die Daten, die man sucht. Aber zu jedem Lebensbereich findet man mehr, als das Alltagswissen bereithält. Florian Knauer hat kürzlich darauf hingewiesen, dass die Digitalisierung der Information Einfluss auch auf die juristische Methodenlehre haben werde. [2]Florian Knauer, Juristische Methodenlehre 2.0? Der Wandel der juristischen Publikationsformate und sein Einfluss auf die juristische Methodenlehre, in: Rechtstheorie 40 (2009), 379–403, 397-400. So werde die leichte Verfügbarkeit der Gesetzesmaterialien im Internet die historische Auslegung stärken. Sie werde zu einem schärferen Blick auf den Gesetzeszweck verhelfen und damit auch die teleologische Auslegung befördern. Dabei könnten neben den Gesetzesmaterialien »auch andere im Internet publizierte Informationen für die teleologische Auslegung herangezogen werden. In Betracht [kämen] beispielsweise behördliche oder andere statistische Daten …«. Bei dieser Entwicklung könnten die »Berichte« eine tragende Rolle spielen, denn sie sind politik- und praxisnäher als die Forschung, die aus den klassischen Wissenschaftsinstitutionen kommt. Soweit die Berichte hinreichend bekannte und angesehene Institutionen zum Absender haben, strahlen sie zudem einige Glaubwürdigkeit und Autorität aus.

Anmerkungen

Anmerkungen
1 M. Ethan Katsh, The Electronic Media and the Transformation of Law, New York, NY 1989, S. 94-101, 247-265; ders., Law in a Digital World, New York, NY 1995, S. 158, 164 f.
2 Florian Knauer, Juristische Methodenlehre 2.0? Der Wandel der juristischen Publikationsformate und sein Einfluss auf die juristische Methodenlehre, in: Rechtstheorie 40 (2009), 379–403, 397-400.

Ähnliche Themen

In memoriam Rudolf Wassermann

Am 13. Juni 2008 ist Rudolf Wassermann gestorben. Das war der Todesanzeige der Familie in der FAZ vom 21. Juni zu entnehmen. Ein Beitrag der Redaktion wird hoffentlich folgen.

Als junger Richter – das war wohl 1968 oder 1969 – bin ich Wassermann in Kiel auf einer Veranstaltung des Deutschen Richterbundes begegnet und habe mich mit ihm heftig über seine These von der politischen Qualität des Rechts und der Rechtsprechung gestritten. Später habe ich versucht, durch die Tat Abbitte zu tun und mich an dem von ihm herausgegebenen Alternativkommentar zur ZPO beteiligt. Längst war er für mich ein leuchtendes Beispiel geworden, wie ein Einzelner durch furchtlose Leidenschaft die Dinge in Bewegung bringen kann. Mit schier unbegrenzter Arbeitskraft verband er in seiner Person die Rollen des Richters, des Rechtspolitikers und des Wissenschaftlers. Ich werde ihn in Erinnerung behalten als die personifizierte Interdisziplinarität.

Zu Würdigung Wassermanns ist das Notwendige zu Lebzeiten von anderen gesagt worden:

G. Bertram, Wassermann – Ein Urgestein der Justiz, Besprechungsaufsatz zu Rudolf Wassermann: Politik und Justiz im demokratischen Verfassungsstaat, Aus Reden und Schriften 1989-1999 – Berlin Spitz, 2000, in: Mitteilungen des Hamburgischen Richtervereins Nr. 2/2003
Artikel „Rudolf Wassermann“ in Wikipedia
Gerhard Mauz: Der umstrittenste Richter unter Richtern, Spiegel-Archiv (1971)

Die jüngste Stellungnahme von Wassermann selbst, die ich gefunden habe, richtet sich gegen den Vorschlag zur Einführung eines Kinderwahlrechts, veröffentlich 2004 im Humboldt Forum Recht.

Ähnliche Themen