Hohfelds analytisches Schema der Rechte (sollte man vergessen)

Immer noch taucht in der rechtstheoretischen Literatur das analytische Schema der Rechte von Wesley Newcomb Hohfeld auf. [1]Zuletzt etwa Andreas Funke, Rechtstheorie, in: Julian Krüper (Hg.), Grundlagen des Rechts, 2011, S. 45-64/56 f. Recht ausführlich wird es von Alexy [2]Robert Alexy, Theorie der Grundrechte, Nachdruck der 1. Aufl., 2006, 187 ff. behandelt. Er weist zwar darauf hin, dass Bentham eigentlich schon weiter war und bescheinigt Hohfeld Unvollständigkeit, meint jedoch [3]In Fn. 96., da Hohfelds Unterscheidungen anschaulicher seien als die Benthams und das Standardsystem der deontischen Logik zwar nicht explizit verwendeten, aber implizit voraussetzten, böten sie »eine ideale Basis für weitere Untersuchungen«. Ich frage mich, für welche denn.
Hohfelds Schema geht zurück auf zwei Aufsätze »Some Fundamental Legal Conceptions as Applied in Judicial Reasoning« und »Fundamental Legal Conceptions as Applied in Judicial Reasoning«, die Hohfeld 1913 und 1917 im Yale Law Journal veröffentlicht hatte. Heute zitiert man nach einer postumen Ausgabe, die 1919 für Yale University Press von Walter Wheeler Cook besorgt wurde. Sie ist im Internet verfügbar, lädt sich aber, da es sich um Bilder handelt, nur sehr mühsam und ist schwer zu lesen. Besser lesbar ist das Buch, wenn man Zugang zu Hein Online hat. Dass es immer noch für bedeutsam gehalten wird, mag man daraus entnehmen, dass es 2010 neu aufgelegt worden ist.
Hohfelds Problem war die Mehrdeutigkeit des Ausdrucks »Recht« (right). Deshalb unterschied er claim rights, liberty rights oder privileges, powers (abilities) und immunities. Claim rights sind subjektive Rechte im Sinne von klagbaren Ansprüchen. Powers entsprechen ziemlich genau dem, was wir unter Kompetenzen verstehen. Dagegen bleiben die Kategorien der liberty rights (privileges) und der immunities unklar. Zur Erläuterung der liberty rights erfahren wir, wenn A das Freiheitsrecht habe, X zu tun, dann sei A weder gegenüber einer bestimmten Person B noch gegenüber irgend jemandem sonst verpflichtet, X zu unterlassen. Das Freiheitsrecht begründe aber auch weder bei B noch bei irgendeinem Dritten eine Pflicht, A bei der Ausübung zu unterstützen. Das ist aus unserer Sicht die deontische Modalität der Freistellung. Als Beispiel für immunities dienen etwa das Grundrecht auf freie Meinungsäußerung oder das »Recht« eines Vertragspartners, dass der andere Teil den Vertrag nicht einseitig ändert. Bei den immunities handelt es sich also um Abwehrrechte oder um die Kehrseite fehlender Kompetenz.
Das Verhältnis des Rechtsinhabers zu einem Verpflichteten oder zu Dritten versucht Hohfeld mit dem Begriff jural correlatives zu erfassen, den man wohl mit Rechtsverhältnis übersetzen kann.
Aus deutscher Sicht ist Hohfelds Schema der Rechte verwirrend und unterkomplex. Es ist verwirrend, weil es nicht zwischen Rechten und deontischen Modalitäten (Gebot, Verbot, Freistellung, Tun und Unterlassen) unterscheidet. Keinen Platz haben in diesem Schema Pflichten aus Verboten, denen kein unmittelbar Berechtigter gegenüber steht (z. B. Parkverbote im Straßenverkehr) Es ist aber auch deshalb verwirrend, weil die Kategorie der immunities Konstellationen zusammenfasst, die nicht zusammenpassen. Hohfelds Schema ist unterkomplex, weil es die Unterscheidung von subjektiven Rechten im Sinne von Ansprüchen und im Sinne von primären oder Stammrechten verfehlt und weil es nicht zwischen absoluten und relativen Rechten differenziert. Das ist keine Kritik an Hohfeld, denn heute sind wir 100 Jahre klüger. Was ich kritisiere, ist, dass das alte Hohfeld-Schema immer noch mitgeschleppt wird. Man sollte es – mindestens in Deutschland – schnellstens vergessen.
Nachtrag Juni 2012: Neu ist der (kurze) Artikel von Lawrence B. Solum in seinem »Legal Theory Lexicon«: Hohfeld. Er gibt keinen Anlass, meine Einschätzung zu ändern.

Nachtrag September 2024: Im Englischen gibt es anscheinend keine Entsprechung für den deutschen Begriff der Freistellung. Dort werden Erlaubnis und Freistellung als permission angesprochen. Daraus resultiert eine überflüssige Diskusssion über den deontischen Status des Begriffs permision (Andrew Halpin, Overcoming von Wright’s Anxiety, 2024, SSRN 4826949). Halpin will das Problem mit Hilfe von Hohfelds Schema der Rechte lösen.

Anmerkungen

Anmerkungen
1 Zuletzt etwa Andreas Funke, Rechtstheorie, in: Julian Krüper (Hg.), Grundlagen des Rechts, 2011, S. 45-64/56 f.
2 Robert Alexy, Theorie der Grundrechte, Nachdruck der 1. Aufl., 2006, 187 ff.
3 In Fn. 96.

Ähnliche Themen

Zur Kritik am Container- oder Transportmodell der Kommunikation

Nachdem die Methodenlehre längst vom Subsumtionsdogma abgerückt ist, wendet sich die neuere Kritik gegen das so genannte Containermodell der Kommunikation, dass der juristischen Methode zugrunde liege. Gemeint ist eine Informationsübertragung nach dem technischen Kommunikationsmodell von Shannon und Weaver. Dazu wird das ganze Arsenal postmoderner Wissenschaftstheorie, Sprachphilosophie, Soziolinguistik und Systemtheorie aufgeboten. Kurz und prägnant wird die Kritik von Lerch [1]Kent D. Lerch, Wissen oder Willkür? Zur Konstruktion des Rechtsfalls durch den Richter, in: Ulrich Dausendschön-Gay (Hg.), Wissen in (Inter-)Aktion, Verfahren der Wissensgenerierung in … Continue reading zusammengefasst. Sie läuft weitgehend ins Leere, denn kaum jemand bestreitet, dass das technische Modell der Kommunikation für die Humankommunikation nur als Kontrastmittel brauchbar, und zwar aus fünf Gründen.
1. Ein Mensch empfängt ständig zahllose Reize, die als Zeichen in Betracht kommen. Zum Zeichen werden solche Signale erst durch eine Wahl des Empfängers. Erst wenn und weil der Empfänger ein Signal als Zeichen deutet, kann es kommunikativ wirken.
2. Für die Humankommunikation steht eine Vielzahl von Kodes zur Verfügung. Die prominentesten sind der linguistische Kode der Sprache und der Buchstabenkode der Schrift. Ein beinahe perfekter Kode ist das Notensystem der Musik; andere, insbesondere ikonografische Kodes, sind vergleichsweise sehr unbestimmt. Doch selbst die leistungsfähigsten Kodes lassen Spielräume.
3. Es ist nicht gewährleistet, dass ein vorhandener Kode auch optimal genutzt wird. Der Kode kann nicht technisch implementiert werden wie das Übertragungsprotokoll zwischen Computer und Drucker. Seine Anwendung ist von der Kommunikationskompetenz der Beteiligten und von deren Folgebereitschaft abhängig. Der Sender, der in aller Regel ein Interesse daran hat, verstanden zu werden, wird sich nach Kräften an den verfügbaren Kode halten. Wenn der Empfänger dieses Interesse nicht vollständig teilt, wird er nachlässig dekodieren und alle Unklarheiten in seinem Sinne nutzen. Es liegt auf der Hand: Je schwächer der Kode, desto größer die Interpretationsfreiheit. Die Bedeutungszuweisung wird zur Sache des Empfängers.
4. Humankommunikation vollzieht sich gleichzeitig auf mehreren Kanälen. Die Zeichenkonkurrenz steigert noch die Interpretationsherrschaft des Empfängers und verhilft ihm zu einer dominanten Stellung in der Kommunikation.
5. Auf zwei Stufen vollzieht sich eine nicht-instrumentelle Beteiligung des Mediums am Kommunikationsprozess:
a) Die technischen Medien (der Übertragungskanal) bleiben nicht semantisch neutral. Sie bestimmen die Reichweite und Verfügbarkeit des Informationsflusses und damit die raumzeitliche und soziale Organisation der Kommunikation und haben so erheblichen Anteil an der Bedeutungskonstitution.
b) Die semiotischen Qualitäten des verwendeten Zeichensatzes strukturieren das kognitive Potential von Sender und Empfänger.

Erfolgreiche Kommunikation ist aber nicht so selten, wie es unter diesen Voraussetzungen scheinen könnte. Im Gegenteil, eine gelungene Verständigung ist, und zwar nicht nur im Alltag (so aber Lerch), sondern auch in der Rechtspraxis, sogar der Normalfall. Der Rezipient wird Signale aus einem bestimmten Kanal als Zeichen interpretieren und sich um eine subjektive Auslegung, d. h. um eine Auslegung im Sinne des Senders, bemühen, wenn er interessante Informationen erwartet. Auch der Rollentausch zwischen Sender und Empfänger verpflichtet beide auf eine effektive Nutzung der verwendeten Kodes. Schließlich können auch Sanktionen zu einer kodegerechten Kommunikation veranlassen. Sanktionen setzen allerdings Kontrolle voraus. Die Kontrollmöglichkeiten steigen mit der Qualität des Kodes und sind damit bei der Sprache relativ hoch. Kontrolle und Sanktionen laufen ihrerseits wieder über Kommunikation mit der Folge, dass Schrift und Sprache als effektive Kommunikationsmittel geradezu selbstverstärkende Wirkung haben.
Für die Rechtskommunikation tritt eine weitere Komplikation hinzu, weil Normtexte in der Regel nicht von einer einzelnen Person als Absender ausgehen, sondern einer Institution, insbesondere einem Parlament, zuzurechnen sind. Die Rede vom »Willen des Gesetzgebers« ist dann eine grobe Vereinfachung, wenn nicht gar eine Fiktion. Dadurch wird die Identifizierung einer gesetzgeberischen Intention als Dekodierungshilfe zwar erschwert, aber nicht ausgeschlossen. [2]So aber Dietrich Busse, Ist die Anwendung von Rechtstexten ein Fall von Kommunikation?, in: Kent D. Lerch (Hg.), Recht vermitteln, Strukturen, Formen und Medien der Kommunikation im Recht, Bd. 3, … Continue reading
Im Normalfall besteht gar keine Meinungsverschiedenheit über die Mitteilungsabsicht »des Gesetzgebers«. Aber auch in Streitfällen wäre, wie die Geschichtswissenschaft mit ihren historisch-kritischen Analysen zeigt, die Intention gesetzgeberischen Handelns oft mit hinreichender Sicherheit zu ermitteln. [3]Rainer Hegenbarth, Juristische Hermeneutik und linguistische Pragmatik, 1982, 177. Dass juristische Interpretation von solchen Analysen kaum Gebrauch macht, steht auf einem anderen Blatt.
Ein Problem ergibt sich schließlich daraus, dass das Textverständnis von den Interessen des Interpreten gelenkt wird. Wer eine Gebrauchsanleitung liest, wird sie in aller Regel »richtig« verstehen, das heißt so, wie sie vom Verfasser gemeint war, weil er daran interessiert ist, dessen Mitteilungsabsicht richtig zu erfassen. Wer einen literarischen Text liest, sucht eher eine Projektionsfläche für eigene Gedanken. Juristische Texte werden regelmäßig vor dem Hintergrund von Konflikten gelesen. Mit der Lektüre verbindet sich deshalb das Interesse, die eigene Position im Streit zu verstärken. Das ist keine gute Voraussetzung für eine verlustfreie Informationsübertragung, sondern oft der Ausgangspunkt für einen »semantischen Kampf« [4] Ausdruck nach Ralph Christensen, z. B. in Friedrich Müller/Ralph Christensen, Juristische Methodik: Grundlegung für die Arbeitsmethoden der Rechtspraxis, 10. Aufl., 2009, S. 195.. Aber daran mus die Wissenschaft sich nicht unbedingt beteiligen.

Anmerkungen

Anmerkungen
1 Kent D. Lerch, Wissen oder Willkür? Zur Konstruktion des Rechtsfalls durch den Richter, in: Ulrich Dausendschön-Gay (Hg.), Wissen in (Inter-)Aktion, Verfahren der Wissensgenerierung in unterschiedlichen Praxisfeldern, 2010, S. 225-247.
2 So aber Dietrich Busse, Ist die Anwendung von Rechtstexten ein Fall von Kommunikation?, in: Kent D. Lerch (Hg.), Recht vermitteln, Strukturen, Formen und Medien der Kommunikation im Recht, Bd. 3, Berlin 2005, 23-53, 28 ff.
3 Rainer Hegenbarth, Juristische Hermeneutik und linguistische Pragmatik, 1982, 177.
4 Ausdruck nach Ralph Christensen, z. B. in Friedrich Müller/Ralph Christensen, Juristische Methodik: Grundlegung für die Arbeitsmethoden der Rechtspraxis, 10. Aufl., 2009, S. 195.

Ähnliche Themen

Kanon oder Kanonen? Zur Vermehrung der »anerkannten Auslegungsmethoden«

Traditionell unterscheidet die juristische Methodenlehre vier Standardmethoden, die zusammen den Methodenkanon bilden, die grammatische oder Wortauslegung, die historische, die systematische und die teleologische Auslegung. Diese Vierzahl geht bekanntlich schon auf Savigny zurück, auch wenn sich Benennung und Bedeutung seither nicht unerheblich verändert haben. Mir ist nun aufgefallen, dass man jetzt häufiger statt von dem Kanon von den Kanones der Auslegung spricht. [1]Heiko Sauer, Juristische Methodenlehre, in: Julian Krüper (Hg.), Grundlagen des Rechts, Baden-Baden 2011, S. 168-186; so aber auch früher schon Peter Raisch, Vom Nutzen der überkommenen … Continue reading. Kanon ist bekanntlich ein griechisches Wort und bedeutet Rohr und im übertragenen Sinne Richtstab. Canones, der latinisierte Plural, bezeichnet Konzilsbeschlüsse mit legislativem Charakter. Die Canones bilden neben den Dekretalen den Kernbestand des Kirchenrechts und haben diesem sogar den Namen als kanonisches Recht gegeben. Die Frage ist nun, ob der neue Sprachgebrauch auch eine sachliche Änderung anzeigt. Der Kanon im Singular dient heute zur Bezeichnung einer grundsätzlich geschlossenen Textsammlung. Dagegen wären Kanones nach dem Vorbild des Kirchenrechts beliebig vermehrbar. Mein Eindruck ist, dass die Verwendung des Plurals relativ gedankenlos erfolgt.
Dennoch steckt dahinter eine Kontroverse. In den 1960er Jahren begannen viele Juristen jene hermeneutische Ontologie oder ontologische Hermeneutik zu rezipieren, wie sie sich von Dilthey bis Heidegger entfaltet hatte und nunmehr durch Hans-Georg Gadamers »Wahrheit und Methode« repräsentiert wurde. Sie wendet sich dagegen, Hermeneutik mit Schleiermacher und Savigny als »Kunstlehre der Auslegung« zu verstehen, die mit einem Kanon anerkannter Methoden arbeitet. Arthur Kaufmann meinte, die von Savigny herrührende Auslegungslehre, nach der es nur die geschlossene Zahl von vier »Elementen« gebe, sei durch die (neue) Hermeneutik als falsch nachgewiesen worden. [2] Arthur Kaufmann, Problemgeschichte der Rechtsphilosophie, in: ders. u. a. (Hg.), Einführung in Rechtsphilosophie und Rechtstheorie der Gegenwart, 8. Aufl., Heidelberg 2011, 26-147, S. 103. Kaufmanns Verdikt ist schon deshalb unhaltbar, weil es Rechtstheorie und Methode zusammenwirft. Eine Methode ist »nur eine geordnete Klassen von Verhaltensanordnungen (Operationen) zum Zwecke von Problemlösungen. Methoden sind nicht wahr oder falsch, sondern fruchtbar oder unfruchtbar.« [3]Adalbert Podlech, Rechtstheoretische Bedingungen einer Methodenlehre juristischer Dogmatik, Jahrbuch für Rechtssoziologie und Rechtstheorie Bd. 2, 1972, 491-502, S. 492.
Hassemer bleibt beim Singular, meint aber, der Kreis der Auslegungslehren sei nicht geschlossen; und nennt drei Regeln, »die derzeit den Anspruch erheben dürfen, zum Kreis der Auslegungslehren hinzuzutreten: die verfassungskonforme, die europarechtskonforme und die folgenorientierte Auslegung.« [4]Winfried Hassemer, Juristische Methodenlehre und richterliche Pragmatik, Rechtstheorie 39 , 2008, 1-22, S. 10. Aus der Unabgeschlossenheit des »Kanons« entwickelt Hassemer ein Argument gegen die … Continue reading Hassemer ist ein Schüler Kaufmanns und selbst als Hermeneutiker hervorgetreten. Daher überrascht es nicht, dass er dass er den Kreis der Auslegungsmethoden als offen ansieht. Für Hermeneutiker handelt es sich eben nicht um Methoden im technischen Sinne, sondern um bloße Argumente, die in der Tat beliebig vermehrbar sind.
Geht man von Methoden im engeren Sinne aus, so lässt sich darüber streiten, ob die verfassungskonforme und die europarechtskonforme Auslegung – eigentlich müssten man jetzt auch noch die völkerrechtskonforme Auslegung hinzunehmen – eigenständige Methoden bilden. Ich würde sie eher zur systematischen Auslegung rechnen. Es gibt weitere Kandidaten. Die Rechtsvergleichung, die früher bei der Auslegung von Gesetzen nur marginale Bedeutung hatte und zwanglos der systematischen Auslegung zugeordnet werden konnte, ist im Zuge der Europäisierung und der Globalisierung so wichtig geworden, dass sie heute als »fünfte« Auslegungsmethode [5]Peter Häberle, Grundrechtsgestaltung und Grundrechtsinterpretation im Verfassungsstaat – zugleich zur Rechtsvergleichung als »fünfter« Auslegungsmethode, Juristenzeitung , 1989, 913-919. gilt. Dagegen hat Friedrich-Christian Schroeder mit guten Gründen die Annahme zurückgewiesen, die so genannte normative Auslegung sei als fünfte neben die vier Standardmethoden getreten [6]Die normative Auslegung, JZ 2011, 187-194. Die Folgenberücksichtigung, die bis dahin bei der teleologischen Auslegung eine unscheinbare Rolle spielte, könnte sich nunmehr unter dem Einfluss insbesondere der ökonomischen Analyse des Rechts tatsächlich als sechste Auslegungsmethode verselbständigen. Das Verdikt Luhmanns (1969), die Untersuchung und Abwägung von Folgen sei nicht Aufgabe der Rechtsdogmatik, konnte Folgenargumente in Rechtsprechung und Schrifttum nicht ganz unterdrücken und schon gar nicht verhindern, dass die Folgenberücksichtigung im Methodenschrifttum ausführlich und überwiegend positiv erörtert wurde. Ein wichtiger Einwand war bisher, dass das Angebot der Sozialwissenschaft nicht ausreiche, die Gerichte, das Verfassungsgericht vielleicht ausgenommen, aber nicht ad hoc empirische Forschung veranlassen könnten. Ich habe bereits in einem früheren Eintrag [7]Berichtsforschung IV: Ein Umweg zur Interdisziplinarität der juristischen Arbeit? darauf hingewiesen, dass sich Situation insoweit durch die freie Verfügbarkeit einer umfangreichen Berichtsforschung geändert haben könnte.
Ein Kanon im Sinne eines prinzipiell geschlossenen Bestandes muss nicht zementiert sein, sondern kann sich im Laufe der Zeit wandeln. Der Kreis der Auslegungsmethoden ist nicht so offen, wie Hassemer meint und schon gar nicht beliebig. Das Bundesverfassungsgericht spricht wiederholt von »anerkannten Auslegungsgrundsätzen« [8]Z. B. E 88, 145/167; BVerfG, 2 BvR 2939/93 vom 29.4.1998 Abs. 13; BVerfG, 1 BvR 224/07 vom 28.4.2009 Abs. 15. (von denen die Verfassung keine bestimmte Auslegungsmethode vorschreibe). Welche das sind, lässt das Gericht offen. Aber »anerkannt« müssen sie sein. Man sollte deshalb weiterhin vom Kanon reden (und nicht von Kanonen).
(Geändert am 15. 8. 2011.)

Anmerkungen

Anmerkungen
1 Heiko Sauer, Juristische Methodenlehre, in: Julian Krüper (Hg.), Grundlagen des Rechts, Baden-Baden 2011, S. 168-186; so aber auch früher schon Peter Raisch, Vom Nutzen der überkommenen Auslegungskanones für die praktische Rechtsanwendung, Heidelberg 1988.
2 Arthur Kaufmann, Problemgeschichte der Rechtsphilosophie, in: ders. u. a. (Hg.), Einführung in Rechtsphilosophie und Rechtstheorie der Gegenwart, 8. Aufl., Heidelberg 2011, 26-147, S. 103.
3 Adalbert Podlech, Rechtstheoretische Bedingungen einer Methodenlehre juristischer Dogmatik, Jahrbuch für Rechtssoziologie und Rechtstheorie Bd. 2, 1972, 491-502, S. 492.
4 Winfried Hassemer, Juristische Methodenlehre und richterliche Pragmatik, Rechtstheorie 39 , 2008, 1-22, S. 10. Aus der Unabgeschlossenheit des »Kanons« entwickelt Hassemer ein Argument gegen die Tauglichkeit der Auslegungsmethoden, das wenig taugt, weil es den Unterschied zwischen Auslegungsmethoden und Auslegungstheorien = Theorien über das Ziel der Auslegung vernachlässigt.
5 Peter Häberle, Grundrechtsgestaltung und Grundrechtsinterpretation im Verfassungsstaat – zugleich zur Rechtsvergleichung als »fünfter« Auslegungsmethode, Juristenzeitung , 1989, 913-919.
6 Die normative Auslegung, JZ 2011, 187-194
7 Berichtsforschung IV: Ein Umweg zur Interdisziplinarität der juristischen Arbeit?
8 Z. B. E 88, 145/167; BVerfG, 2 BvR 2939/93 vom 29.4.1998 Abs. 13; BVerfG, 1 BvR 224/07 vom 28.4.2009 Abs. 15.

Ähnliche Themen

»Harte« und »weiche« Normen

In der »Allgemeinen Rechtslehre« (§ 29 I) nehmen wir aus der amerikanischen Diskussion die Unterscheidung zwischen standard und rule auf, die hierzulande vernachlässigt wird. Natürlich wird auch hier ausführlich über Regeln und Standards diskutiert. Aber man kann die englischen Ausdrücke nicht einfach mit den gleichlautenden deutschen Vokabeln übersetzen. Gemeint ist etwas anderes, und deshalb sprechen wir von »harten« und »weichen« Normen. Unter »harten« Normen verstehen wird solche, die sich im Wege semantischer Interpretation konkretisieren lassen. »Weich« sind solche Normen, die dem Anwender einen größeren Spielraum geben. Für beide Normtypen bietet die Straßenverkehrsordnung viele Beispiele. Subsumtionsfähig sind etwa folgende Regeln: Die zulässige Höchstgeschwindigkeit beträgt innerhalb geschlossener Ortschaften 50 km/h. Es ist links zu überholen. Krafträder dürfen nicht abgeschleppt werden. Relativ unbestimmt sind dagegen folgende Normen: Der Fahrzeugführer darf nur so schnell fahren, dass er sein Fahrzeug ständig beherrscht. Bei der Benutzung von Fahrzeugen sind unnötiger Lärm und vermeidbare Abgasbelästigungen verboten. Wer ein- oder aussteigt, muss sich so verhalten, dass eine Gefährdung anderer Verkehrsteilnehmer ausgeschlossen ist.
In Deutschland konzentriert sich die Diskussion über Standards im Sinne von unbestimmten Rechtsnormen auf die juristisch-dogmatische Frage von wem und mit welchen Methoden solche Standards zu konkretisieren sind. In den USA steht eine andere, rechtssoziologische Frage im Vordergrund, nämlich die Frage nach der Funktion von solchen standards. »Harte« Regeln müssen genau sein und verlangen daher mehr Aufwand bei ihrer Formulierung. Sie können jedoch den Vollzug erleichtern und damit Kosten sparen. Zugunsten »harter« Regeln werden immer wieder Rechtssicherheit und die Abschreckungswirkung ins Feld geführt, dagegen, dass sie dem durch O. W. Holmes sprichwörtlich gewordenen »bad man« gestatten, berechnend bis an die Grenzen zu gehen. »Weiche« Normen dagegen veranlassen die Adressaten zu situationsadäquatem Verhalten auf der Linie des Gesetzeszwecks. Auf der anderen Seite können weiche Normen risikoscheue Menschen von wünschenswerten Aktivitäten abhalten und umgekehrt risikofreudige Personen zu Grenzüberschreitungen veranlassen. Ähnlich liefern »harte« Regeln zwar eine klare Abgrenzung bei der Delegation von Befugnissen, fördern jedoch Verantwortungsscheu, während weiche Normen dazu veranlassen können, von Vollmachten sinnvoll Gebrauch zu machen. Schließlich können »harte« Regeln zwar in vielen Situationen für klare Information sorgen und Informationskosten reduzieren. Sie empfehlen sich daher, wenn das zu regulierende Verhalten ein Massenphänomen ist, wie z.B. im Straßenverkehr. Dort kann allerdings die Flüssigkeit des Verkehrs darunter leiden. »Harte« Regeln können andererseits die Kommunikation beschränken und Missverständnisse herbeiführen, während »weiche« Normen durch Vermeidung von Ritualen und Formalitäten eine breitere Kommunikation anregen und dadurch Verständigung fördern.
Zu diesem Fragenkreis gab es jetzt eine interessante Diskussion im Harvard Law Review. In einem Artikel über »Inducing Moral Deliberation: On the Occasional Virtues of Fog« [1]Harvard Law Review 123 , 2010, 1214-1246. machte die Autorin Seana Valentive Shiffrin geltend, »weiche« Normen könnten moralische Überlegungen und demokratische Aktivitäten der Bürger anregen. Wer einer weichen Norm gerecht werden wolle, müsse oft selbst darüber nachdenken, welche moralischen Prinzipien im Hintergrund relevant seien und danach abwägen, welche Verhaltensweise von anderen Menschen erwartet werde und was fair, angemessen usw. usw. sei. Damit gehe von standards auch eine erzieherische Wirkung aus, weil Menschen sich die Zwecke der Norm und den Sinn des Rechts überhaupt bewusst machen müssten. Darauf hat Brian Sheppard erwidert mit »Calculating the Standard Error: Just How Much Should Empirical Studies Curb Our Enthusiasm For Legal Standards?« [2]Harvard Law Review 124, 2011, 92-109. Er meint, die Sache sei komplizierter. Es komme darauf an, ob eine Norm verbindlich oder nur eine Empfehlung sei. Das finde ich nicht so interessant, denn eine bloß empfehlende Norm (z. B. Richtgeschwindigkeit auf der Autobahn) könnte psychologisch durchaus die von Shiffrin behaupteten Wirkungen haben. Sheppards eigenes Beispiel – ein modifiziertes Diktatorspiel – finde ich nicht überzeugend, weil zu untypisch für einen Standard. Interessanter scheint mir das Argument, dass bei einem Konflikt zwischen rechtlichen und außerrechtlichen Normen eine »harte« Rechtsnorm eher in moralische Auseinandersetzungen führe. Am interessantesten ist aber wohl Sheppards Hinweis auf zwei empirische Untersuchungen, die jedenfalls indirekt zu den unterschiedlichen Qualitäten von »harten« und »weichen« Normen aufschlussreich sein könnten. Hier ist das Ergebnis eher skeptisch. In dem einen Fall scheint es, als ob die »weiche« Norm eher zu egoistischem Verhalten veranlasst. Im anderen Fall geht um die Handhabung von »weichen« Normen durch Richter, und hier zeigt sich wohl, dass »weiche« Normen eher geeignet sind, vorgefasste (»ideologische«) Meinungen zu praktizieren.

Anmerkungen

Anmerkungen
1 Harvard Law Review 123 , 2010, 1214-1246.
2 Harvard Law Review 124, 2011, 92-109.

Ähnliche Themen

Logische Bilder im Recht

Nachdem die Schamfrist des § 38 Abs. 2 UrhG abgelaufen ist, stelle ich meinen Beitrag zur Schnapp-Festschrift über Logische Bilder im Recht (2008) hier ins Netz.
Drei Hinweise oder Ergänzungen sind angezeigt:
1. Lothar Philipps [1]Von deontischen Quadraten — Kuben — Hyperkuben. In: Dias, Augusto Silva u. a. (Hg.): Liber Amicorum de José de Sousa e Brito. Em comemoraçaõ do 70.o aniversário; estudos de direito e … Continue reading hat das Normenquadrat zu einem deontischen Kubus erweitert. Damit will er Konstellationen zum Ausdruck bringen, in denen Normen nicht schlechthin gelten, sondern nur manchmal oder nicht für Jedermann. Ich bin noch nicht davon überzeugt, dass es sich dabei um mehr handelt als um eine schöne Spielerei, denn kategorische Normen gibt es ja in der Praxis ohnehin nicht. Rechtsnormen sind immer hypothetisch in dem Sinne, dass sie nur unter bestimmten Bedingungen oder Einschränkungen zur Anwendung kommen.
2. Auf der 2. Münchener Rechtsvisualisierungstagung hat Philipps über die Brauchbarkeit von Venn-Diagrammen zur Veranschaulichung von Normen vorgetragen (Abstract). Praktisch ist diese Darstellungsart insoweit relevant, als damit Normkonkurrenzen visualisiert werden können. Das hatte ich in meiner Arbeit über Logische Bilder übersehen.
3. Auf Anregung von Friedrich Lachmayer hatte ich mich in der Arbeit über Logische Bilder an den sog. Petrinetzen versucht. Mit dem Ergebnis war und bin ich nicht glücklich. Ein Echo habe ich darauf bisher noch nicht erhalten. Ich glaube inzwischen, dass sich Petrinetze besser als die üblichen Flowcharts zur Darstellung von Entscheidungsabläufen eignen könnten.

Anmerkungen

Anmerkungen
1 Von deontischen Quadraten — Kuben — Hyperkuben. In: Dias, Augusto Silva u. a. (Hg.): Liber Amicorum de José de Sousa e Brito. Em comemoraçaõ do 70.o aniversário; estudos de direito e filosofia. Coimbra: Almedina, 2009, S. 385-394

Ähnliche Themen

Wir sind alle Deterministen

Die Bochumer Professoren Tatjana Hörnle und Rolf D. Herzberg hatten für den 6. und 7. Juni 2009 einen kleinen Kreis zu einem Symposium über »Verantwortung ohne Willensfreiheit« auf die Wasserburg Gemen eingeladen. Die Eingeladenen bekannten mehr oder weniger freimütig: Wir sind alle Deterministen. Es gab aber auch Konsens, dass sich an dem bestehenden Schuldstrafrecht prinzipiell nichts ändern müsse. Reinhard Merkel insistierte zwar darauf, man dürfe sich insoweit nicht mit einem »faulen Agnostizismus« zufrieden geben. Aber die philosophische Ebene wurde weitgehend ausgespart. Vorträge und Diskussionen behandelten die Folgeprobleme auf drei Ebenen:
1. Welche Unordnung richtet die wissenschaftliche Überzeugung der Determiniertheit der Welt in unserer sozialen Semantik an? Wie können wir denken, reden und argumentieren, ohne ständig die Determiniertheit des Handelns mitzuführen?
2. Bleibt tadelnde Strafe zur Normverteidigung trotz Unmöglichkeit des Andershandelns akzeptabel?
3. Welche konkreten Anpassungen des Schuldstrafrechts werden notwendig?
Auf die erste Frage antwortete Bernd Schünemann (München) »konstruktivistisch«: Die »gesellschaftliche Konstruktion der Wirklichkeit«, wie sie sich in der Sprache realisiert habe, setze nun einmal, jedenfalls in Europa, die Idee der Willensfreiheit voraus [1]Vgl. auch schon Schünemann, Die Funktion des Schuldprinzips im Präventionsstrafrecht, in: ders. (Hg.), Grundfragen des modernen Strafrechtssystems, 1984, 153-195, 163 ff.. In der Diskussion wurde klar, dass diese Konstruktion mindestens als kontingent angesehen werden muss. Auf die zweite Frage antworteten Reinhard Merkel (Hamburg) und Rolf Herzberg (Bochum). Merkel rechtfertigte die Schuldstrafe als gesellschaftlich geforderte und notwendige Maßnahme zur Normverteidigung. Therapie werde immer als Prävention verstanden und sei deshalb keine Verteidigung der Norm. Ohne dass der Name gefallen wäre, war doch klar, dass hier Luhmanns Kategorisierung der Normen als lernunwillig festgehaltener Erwartungen herangezogen wurde. Aber doch nur der halbe Luhmann. Ich hatte den Eindruck, dass Strafrechtlicher trotz aller Bemühung um Realismus die partielle Äquivalenz von Maßnahmen und Verfahren mit Sanktionen ausblenden. Herzberg brachte den Gedanken der Charakterschuld ins Gespräch. Dabei ging es nicht um die alte Idee eines Täterstrafrechts, sondern um das Phänomen, dass eine biographische Prägung, die eine konkrete Handlung determiniert, weder das subjektive Freiheitsempfinden noch die Fremdeinschätzung als freie Handlung hindert. Dafür brauche man weder PAM (das Prinzip alternativer Möglichkeiten) noch eine Superfreiheit. In der Diskussion wurde Herzbergs Ansatz »phänomenologisch« genannt und betont, dass seine Vorstellung von Charakterschuld ebenso mit den Thesen des neuronalen Determinismus vereinbar sie wie mit § 20 StGB. Allerdings wurden Zweifel angemeldet, ob das auch für § 3 JGG gelte. Die dritte Frage wurde allgemein dahin beantwortet, es könne im Prinzip alles so bleiben wie es ist. Aber Grischa Merkel (Rostock) setzte doch einen Akzent, indem sie jedenfalls für das Maßnahmenrecht auf Fairness statt Schuld abstellte und den Betroffenen in geeigneten Fällen ein Wahlrecht zwischen Strafe und Maßnahme einräumen wollte. Im Anschluss an ihren Vortrag staunte ein altgedienter Strafrechtler, wie sehr sich durch die laufenden Veränderungen in den §§ 61 ff StGB das Strafrecht längst zum Maßnahmerecht entwickelt habe. Am Rande fielen kritische Bemerkungen zur Unkontrollierbarkeit der Sachverständigen und zum diskretionären Charakter richterlicher Maßnahmeentscheidungen.
Für mich als Außenseiter war mindestens so interessant wie die grundsätzlichen Fragen, was man so am Rande in den Diskussionsbemerkungen erfuhr, z. B.: Auf die Frage, wozu denn wirklich heute die Neurowissenschaften fähig seien, antwortete R. Merkel mit dem Hinweis auf einen Videoclip von der Webseite von Karl Deisseroth (Deisseroth Lab, Stanford), das eine Maus zeigt, die durch einen optischen Reiz auf den Cortex dazu gezwungen wird, gegen den Uhrzeigersinn im Kreis zu laufen. Richtig verstanden habe ich die Bedeutung des Experiments, das auf der Webseite in allen technischen Details beschrieben wird, nicht. Ein halbwegs verständlicher Bericht unter http://www.technologyreview.com/biomedicine/22313/. Anscheinend müssen die Hirnzellen vorher präpariert werden, um derart lichtempfindlich zu werden, und der Lichtimpuls löst dann biochemische Reaktionen aus, die als Belohnung wirken, wie eine Dosis Kokain oder Amphetamin mit der Folge, dass die Maus sich gerne an die Situation erinnert, wo sie den Impuls empfangen hat. Was folgt daraus? Auch früher schon konnte man Tiere und Sklaven mit der Zuckerbrot und Peitsche antreiben, im Kreis zu laufen.
(Beitrag ergänzt am 14. Juni 2009.)
Nachtrag vom 25. 8. 2009: In der Septemberausgabe von Spektrum der Wissenschaft findet sich ein lesenswertes Interview mit dem Neurophysiologen Wolf Singer (S. 74-79). Singer vertritt ja die Auffassung, dass es für verantwortliches Handeln keinen freien Willen im naturwissenschaftlichen Sinne braucht. Das Interview steht im Netz zur Verfügung: http://www.spektrum.de/artikel/1002943

Anmerkungen

Anmerkungen
1 Vgl. auch schon Schünemann, Die Funktion des Schuldprinzips im Präventionsstrafrecht, in: ders. (Hg.), Grundfragen des modernen Strafrechtssystems, 1984, 153-195, 163 ff.

Ähnliche Themen

Kreissl zur soziologischen Zeitdiagnose

Hier einmal wieder ein Kollateralfund. Auf der Rechtssoziologietagung in Luzern gab es am 6. 9. 2008 eine Veranstaltung unter der Überschrift »Citizen by Proxy – Entwicklungstendenzen der rechtlichen Stellvertretung«. Die war mir entgangen, weil ich vorzeitig hatte abreisen müssen. Worum es geht, beschreibt der Organisator der Veranstaltung, Reinhard Kreissl, im Tagungsprogramm:

Der rechtliche Stellvertreter ist eine klassische Figur des modernen Rechtsstaats. Rechtsanwälte, Steuerberater und Notare erfüllen traditionell die Aufgabe, in komplexeren Transaktionen die Interessen ihrer Klienten wahrzunehmen. Neben diesen Experten entstehen zusehends neue Rollen, in denen die Wahrnehmung individueller Rechte und die Erledigung von Rechtsgeschäften i.w.S. an Stellvertreter delegiert werden. Typische Beispiele sind hier etwa Kinderanwälte in Familienrechtsverfahren, Patientenanwälte, Heimbewohnervertreter oder Sachwalter, deren Aufgabe es ist, in lebensweltlichen Kontexten die Rechte ihrer Klientel wahrzunehmen. Neu ist hier, dass zum einen Bereiche, die bisher dem unmittelbaren rechtlichen Zugriff entzogen waren, wie etwa die Familie, jetzt als rechtlich strukturierte Handlungszusammenhänge begriffen werden, in denen die Akteure rechtlich definierte und durchsetzbare Ansprüche haben; zum anderen, dass Individuen, bei denen aufgrund ihrer körperlich-geistigen Verfassung die Kompetenz zur Wahrnehmung ihrer Rechte infrage gestellt wird, ein gesetzlich definierter Rechtsvertreter zugeordnet wird. Diese Entwicklung lässt sich in unterschiedlicher Hinsicht analysieren …

Nun wollte ich der Sache nachgehen, weil das Thema rechtssoziologisch wie rechtstheoretisch interessant ist. Dazu habe ich natürlich die Webseite des Organisators gesucht und bin so auf die Seite des Instituts für Rechts- und Kriminalsoziologie in Wien gestoßen. Dort wird auch eine lange Liste von Manuskripten zum Download angeboten, darunter auch solche, die die neuartige Form der Betreuung behandeln. Die jüngste: Kinderbeistand. Endbericht der Begleitforschung zum Modellprojekt von Brita Krucsay, Christa Pelikan und Arno Pilgram, 2008. Hängengeblieben bin ich jedoch beim Durchblättern der Liste bei dem Manuskript »Soziologische Zeitdiagnose. Vorlesungsnotizen SoSe 2008« von Reinhart Kreissl. Es handelt sich wirklich nur um formlose Notizen. Aber sie sind voller Inhalt, und der Verfasser hält mit seinem Urteil nicht zurück. Ich habe die »Notizen« mit Vergnügen und Gewinn gelesen.

Nachtrag vom 16. Juni 2009 hier.

Nachtrag vom 12. November 2009: Die soziologische Zeitdiagnose arbeitet bekanntlich u. a. mit den Schlüsselbegriffen Erlebnisgesellschaft, Risikogesellschaft, Informationsgesellschaft und Weltgesellschaft. Zu diesen Begriffen habe ich, wieder aus Österreich, ein etwas älteres, aber zum Einstieg immer noch brauchbares Manuskript gefunden: Mörth, Ingo/ Baum Doris (Hg.): Gesellschaft und Lebensführung an der Schwelle zum neuen Jahrtausend. Gegenwart und Zukunft der Erlebnis-, Risiko-, Informations- und Weltgesellschaft. Gesellschaft und Lebensführung an der Schwelle zum neuen Jahrtausend. Gegenwart und Zukunft der Erlebnis-, Risiko-, Informations- und Weltgesellschaft. Referate und Arbeitsergebnisse aus dem Seminar »Soziologische Theorie« WS 1999/2000. Online verfügbar unter http://soziologie.soz.uni-linz.ac.at/sozthe/staff/moerthpub/STSGesellschaft.pdf.

Ähnliche Themen

Begleitseite zur »Allgemeinen Rechtslehre« ist online

Als ich dieses Weblog einrichtete, war es auch als Internet-Begleitseite für das Lehrbuch »Allgemeine Rechtslehre« gedacht. Es hat sich jedoch herausgestellt, dass ein Weblog, das wie dieses mit der Software von WordPress läuft, für den gedachten Zweck nicht geeignet ist, weil es, von der Zuordnung der Beiträge mit Kategorien abgesehen, keine Möglichkeit der systematischen Ordnung bietet. Nach einigem Experimentieren mit verschiedenen Content-Management-Systemen haben wir uns nun für Drupal entschieden, weil für dieses System ein brauchbares Modul bereitgehalten wird, mit dessen Hilfe die Gliederung des Buches als Klappmenu eingegeben werden kann. Auf diese Weise wird die Gliederung zum Wissensmanagementsystem, in dem alle für mitteilenswert gehaltenen Informationen untergebracht werden können. Nun ist die Begleitseite unter der Adresse http://allgemeine-rechtslehre.de/ zu erreichen. Wir, die Autoren, hoffen, dass sie Anklang findet.

Ähnliche Themen

Transnationalisierung der deutschen Rechtswissenschaft

Globalisierung und in ihrer Folge die Transnationalisierung des Rechts sind Thema der Allgemeinen Rechtslehre und ebenso der Rechtssoziologie. Bemerkenswert sind deshalb zwei Internetquellen, in denen sich die Transnationalisierung der deutschen Rechtswissenschaft zeigt.
1. German Law Journal. Review of Developments of German, European & International Law (GLJ). Dieses E-Journal existiert seit 2001 und hat sich seither nicht nur zu einem Vermittler deutschen Rechts für die englischsprachige Welt, sondern auch zu einem wichtigen Forum für die Rechtstheorie im weiteren Sinne entwickelt. In NJW-aktuell 17/2009 S. XVI f. wird es von den Herausgebern, Prof. Dr. Peer Zumbansen, LL.M., Toronto, und Prof. Russell A. Miller, LL.M., Lexington, VA, vorgestellt. Zumbansen wurde bekanntlich auf der Jahrestagung der Vereinigung für Rechtssoziologie in Luzern 2008 der Hoffmann-Riem-Preis verliehen. So ist die Interdisziplinarität des GLJ kein Zufall. Sie zeigt sich zuletzt im Aprilheft, einem Themenheft »The Law of the Network Society. A Tribute to Karl-Heinz Ladeur«.
2. Rechercheplattform zum transnationalen Recht
Seit April 2009 unterhält das Center for Transnational Law (CENTRAL) an der Universität zu Köln diese Rechercheplattform zum transnationalen Recht. Spiritus rector ist Professor Dr. Klaus Peter Berger, LL.M., der an der Universität Köln auch als Direktor des Instituts für Bankrecht fungiert.
Die Plattform besteht aus vier Bereichen.
Principles: Eine Zusammenstellung von über 120 Prinzipien des transnationalen Wirtschaftsrechts, der »Neuen Lex Mercatoria«. Neben dem Text des jeweiligen Prinzips (z.B. »Force majeure«, »hardship«, »venire contra fact Continue reading

Ähnliche Themen

Eine Diskussion über H. L. A. Harts Anerkennungsregel

Was für die Rechtstheorie in Österreich und Deutschland Kelsens Grundnorm, das ist für England und die USA Harts »rule of recognition«. Der Unterschied liegt darin, dass die Grundnorm (wie ich sie verstehe) eine bloße Denkvoraussetzung in Sinne der Philosophie des Als-Ob bildet, während die rule of recognition eine empirisch greifbare Basisnorm meint, die allerdings nicht als förmlicher Rechtstext gefasst sein muss. Der richtige Vergleichspunkt für die rule of recognition ist daher gar nicht die Grundnorm, sondern die höchste positive Norm im Stufenbau der Rechtsordnung. Wenn man konkret auf eine bestimmte Rechtsordnung sieht, so geht es um die zentralen Kompetenznormen der Verfassung. In der Allg. Rechtslehre (S. 318 f.) ordnen wir die Lehre Harts als Anerkennungstheorie ein. Aber das ist doch sehr grob.
Wer einen feineren Theorievergleich unternehmen will, dem hilft jetzt ein Aufsatz von Scott J. Shapiro, What is the Rule of Recognition (and Does it Exist)? Und vielleicht das ganze Buch, in dem er erscheinen soll (The Rule of Recognition And the U.S. Constitution, herausgegeben von Matthew Adler und Kenneth Himma, Oxford University Press, 2009). Shapiros Aufsatz (auf den ich natürlich einmal wieder durch Lawrence L. Solum aufmerksam geworden bin) steht jedenfalls zur Zeit noch bei SRRN zum Abruf bereit.
Hier das Abstract:

One
of the principal lessons of The Concept of Law is that legal systems are not only comprised of rules, but founded on them as well. As Hart painstakingly showed, we cannot account for the way in which we talk and think about the law – that is, as an institution which persists over time despite turnover of officials, imposes duties and confers powers, enjoys supremacy over other kinds of practices, resolves doubts and disagreements about what is to be done in a community and so on – without supposing that it is at bottom regulated by what he called the secondary rules of recognition, change and adjudication.

Given this incontrovertible demonstration that every legal system must contain rules constituting its foundation, it might seem puzzling that many philosophers have contested Hart’s view. In particular, they have objected to his claim that every legal system contains a rule of recognition. More surprisingly, these critiques span different jurisprudential schools. Positivists such as Joseph Raz, as well as natural lawyers such as Ronald Dworkin and John Finnis, have been among Hart’s most vocal critics. In this essay, I would like to examine the opposition to the rule of recognition. What is objectionable about Hart’s doctrine? Why deny that every legal system necessarily contains a rule setting out the criteria of legal validity? And are these objections convincing? Does the rule of recognition actually exist?

This essay has five parts. In Part One, I try to state Hart’s doctrine of the rule of recognition with some precision. As we will see, this task is not simple, insofar as Hart’s position on this crucial topic is often frustratingly unclear. I also explore in this part whether the United States Constitution, or any of its provisions, can be considered the Hartian rule of recognition for the United States legal system. In Part Two, I attempt to detail the many roles that the rule of recognition plays within Hart’s theory of law. In addition to the function that Hart explicitly assigned to it, namely, the resolution of normative uncertainty within a community, I argue that the rule of recognition, and the secondary rules more generally, also account for the law’s dexterity, efficiency, normativity, continuity, persistence, supremacy, independence, identity, validity, content and existence. In Part Three, I examine three important challenges to Hart’s doctrine of the rule of recognition. They are: 1) Hart’s rule of recognition is under- and over-inclusive; 2) Hart cannot explain how social practices are capable of generating rules that confer powers and impose duties and hence cannot account for the normativity of law; 3) Hart cannot explain how disagreements about the criteria of legal validity that occur within actual legal systems, such as in American law, are possible. In Parts Four and Five, I address these various objections. I argue that although Hart’s particular account of the rule of recognition is flawed and should be rejected, a related notion can be fashioned and should be substituted in its place. The idea, roughly, is to treat the rule of recognition as a shared plan which sets out the constitutional order of a legal system. As I try to show, understanding the rule of recognition in this new way allows the legal positivist to overcome the challenges lodged against Hart’s version while still retaining the power of the original idea.

Ähnliche Themen