»Harte« und »weiche« Normen

In der »Allgemeinen Rechtslehre« (§ 29 I) nehmen wir aus der amerikanischen Diskussion die Unterscheidung zwischen standard und rule auf, die hierzulande vernachlässigt wird. Natürlich wird auch hier ausführlich über Regeln und Standards diskutiert. Aber man kann die englischen Ausdrücke nicht einfach mit den gleichlautenden deutschen Vokabeln übersetzen. Gemeint ist etwas anderes, und deshalb sprechen wir von »harten« und »weichen« Normen. Unter »harten« Normen verstehen wird solche, die sich im Wege semantischer Interpretation konkretisieren lassen. »Weich« sind solche Normen, die dem Anwender einen größeren Spielraum geben. Für beide Normtypen bietet die Straßenverkehrsordnung viele Beispiele. Subsumtionsfähig sind etwa folgende Regeln: Die zulässige Höchstgeschwindigkeit beträgt innerhalb geschlossener Ortschaften 50 km/h. Es ist links zu überholen. Krafträder dürfen nicht abgeschleppt werden. Relativ unbestimmt sind dagegen folgende Normen: Der Fahrzeugführer darf nur so schnell fahren, dass er sein Fahrzeug ständig beherrscht. Bei der Benutzung von Fahrzeugen sind unnötiger Lärm und vermeidbare Abgasbelästigungen verboten. Wer ein- oder aussteigt, muss sich so verhalten, dass eine Gefährdung anderer Verkehrsteilnehmer ausgeschlossen ist.
In Deutschland konzentriert sich die Diskussion über Standards im Sinne von unbestimmten Rechtsnormen auf die juristisch-dogmatische Frage von wem und mit welchen Methoden solche Standards zu konkretisieren sind. In den USA steht eine andere, rechtssoziologische Frage im Vordergrund, nämlich die Frage nach der Funktion von solchen standards. »Harte« Regeln müssen genau sein und verlangen daher mehr Aufwand bei ihrer Formulierung. Sie können jedoch den Vollzug erleichtern und damit Kosten sparen. Zugunsten »harter« Regeln werden immer wieder Rechtssicherheit und die Abschreckungswirkung ins Feld geführt, dagegen, dass sie dem durch O. W. Holmes sprichwörtlich gewordenen »bad man« gestatten, berechnend bis an die Grenzen zu gehen. »Weiche« Normen dagegen veranlassen die Adressaten zu situationsadäquatem Verhalten auf der Linie des Gesetzeszwecks. Auf der anderen Seite können weiche Normen risikoscheue Menschen von wünschenswerten Aktivitäten abhalten und umgekehrt risikofreudige Personen zu Grenzüberschreitungen veranlassen. Ähnlich liefern »harte« Regeln zwar eine klare Abgrenzung bei der Delegation von Befugnissen, fördern jedoch Verantwortungsscheu, während weiche Normen dazu veranlassen können, von Vollmachten sinnvoll Gebrauch zu machen. Schließlich können »harte« Regeln zwar in vielen Situationen für klare Information sorgen und Informationskosten reduzieren. Sie empfehlen sich daher, wenn das zu regulierende Verhalten ein Massenphänomen ist, wie z.B. im Straßenverkehr. Dort kann allerdings die Flüssigkeit des Verkehrs darunter leiden. »Harte« Regeln können andererseits die Kommunikation beschränken und Missverständnisse herbeiführen, während »weiche« Normen durch Vermeidung von Ritualen und Formalitäten eine breitere Kommunikation anregen und dadurch Verständigung fördern.
Zu diesem Fragenkreis gab es jetzt eine interessante Diskussion im Harvard Law Review. In einem Artikel über »Inducing Moral Deliberation: On the Occasional Virtues of Fog« [1]Harvard Law Review 123 , 2010, 1214-1246. machte die Autorin Seana Valentive Shiffrin geltend, »weiche« Normen könnten moralische Überlegungen und demokratische Aktivitäten der Bürger anregen. Wer einer weichen Norm gerecht werden wolle, müsse oft selbst darüber nachdenken, welche moralischen Prinzipien im Hintergrund relevant seien und danach abwägen, welche Verhaltensweise von anderen Menschen erwartet werde und was fair, angemessen usw. usw. sei. Damit gehe von standards auch eine erzieherische Wirkung aus, weil Menschen sich die Zwecke der Norm und den Sinn des Rechts überhaupt bewusst machen müssten. Darauf hat Brian Sheppard erwidert mit »Calculating the Standard Error: Just How Much Should Empirical Studies Curb Our Enthusiasm For Legal Standards?« [2]Harvard Law Review 124, 2011, 92-109. Er meint, die Sache sei komplizierter. Es komme darauf an, ob eine Norm verbindlich oder nur eine Empfehlung sei. Das finde ich nicht so interessant, denn eine bloß empfehlende Norm (z. B. Richtgeschwindigkeit auf der Autobahn) könnte psychologisch durchaus die von Shiffrin behaupteten Wirkungen haben. Sheppards eigenes Beispiel – ein modifiziertes Diktatorspiel – finde ich nicht überzeugend, weil zu untypisch für einen Standard. Interessanter scheint mir das Argument, dass bei einem Konflikt zwischen rechtlichen und außerrechtlichen Normen eine »harte« Rechtsnorm eher in moralische Auseinandersetzungen führe. Am interessantesten ist aber wohl Sheppards Hinweis auf zwei empirische Untersuchungen, die jedenfalls indirekt zu den unterschiedlichen Qualitäten von »harten« und »weichen« Normen aufschlussreich sein könnten. Hier ist das Ergebnis eher skeptisch. In dem einen Fall scheint es, als ob die »weiche« Norm eher zu egoistischem Verhalten veranlasst. Im anderen Fall geht um die Handhabung von »weichen« Normen durch Richter, und hier zeigt sich wohl, dass »weiche« Normen eher geeignet sind, vorgefasste (»ideologische«) Meinungen zu praktizieren.

Anmerkungen

Anmerkungen
1 Harvard Law Review 123 , 2010, 1214-1246.
2 Harvard Law Review 124, 2011, 92-109.

Ähnliche Themen

Logische Bilder im Recht

Nachdem die Schamfrist des § 38 Abs. 2 UrhG abgelaufen ist, stelle ich meinen Beitrag zur Schnapp-Festschrift über Logische Bilder im Recht (2008) hier ins Netz.
Drei Hinweise oder Ergänzungen sind angezeigt:
1. Lothar Philipps [1]Von deontischen Quadraten — Kuben — Hyperkuben. In: Dias, Augusto Silva u. a. (Hg.): Liber Amicorum de José de Sousa e Brito. Em comemoraçaõ do 70.o aniversário; estudos de direito e … Continue reading hat das Normenquadrat zu einem deontischen Kubus erweitert. Damit will er Konstellationen zum Ausdruck bringen, in denen Normen nicht schlechthin gelten, sondern nur manchmal oder nicht für Jedermann. Ich bin noch nicht davon überzeugt, dass es sich dabei um mehr handelt als um eine schöne Spielerei, denn kategorische Normen gibt es ja in der Praxis ohnehin nicht. Rechtsnormen sind immer hypothetisch in dem Sinne, dass sie nur unter bestimmten Bedingungen oder Einschränkungen zur Anwendung kommen.
2. Auf der 2. Münchener Rechtsvisualisierungstagung hat Philipps über die Brauchbarkeit von Venn-Diagrammen zur Veranschaulichung von Normen vorgetragen (Abstract). Praktisch ist diese Darstellungsart insoweit relevant, als damit Normkonkurrenzen visualisiert werden können. Das hatte ich in meiner Arbeit über Logische Bilder übersehen.
3. Auf Anregung von Friedrich Lachmayer hatte ich mich in der Arbeit über Logische Bilder an den sog. Petrinetzen versucht. Mit dem Ergebnis war und bin ich nicht glücklich. Ein Echo habe ich darauf bisher noch nicht erhalten. Ich glaube inzwischen, dass sich Petrinetze besser als die üblichen Flowcharts zur Darstellung von Entscheidungsabläufen eignen könnten.

Anmerkungen

Anmerkungen
1 Von deontischen Quadraten — Kuben — Hyperkuben. In: Dias, Augusto Silva u. a. (Hg.): Liber Amicorum de José de Sousa e Brito. Em comemoraçaõ do 70.o aniversário; estudos de direito e filosofia. Coimbra: Almedina, 2009, S. 385-394

Ähnliche Themen

Wir sind alle Deterministen

Die Bochumer Professoren Tatjana Hörnle und Rolf D. Herzberg hatten für den 6. und 7. Juni 2009 einen kleinen Kreis zu einem Symposium über »Verantwortung ohne Willensfreiheit« auf die Wasserburg Gemen eingeladen. Die Eingeladenen bekannten mehr oder weniger freimütig: Wir sind alle Deterministen. Es gab aber auch Konsens, dass sich an dem bestehenden Schuldstrafrecht prinzipiell nichts ändern müsse. Reinhard Merkel insistierte zwar darauf, man dürfe sich insoweit nicht mit einem »faulen Agnostizismus« zufrieden geben. Aber die philosophische Ebene wurde weitgehend ausgespart. Vorträge und Diskussionen behandelten die Folgeprobleme auf drei Ebenen:
1. Welche Unordnung richtet die wissenschaftliche Überzeugung der Determiniertheit der Welt in unserer sozialen Semantik an? Wie können wir denken, reden und argumentieren, ohne ständig die Determiniertheit des Handelns mitzuführen?
2. Bleibt tadelnde Strafe zur Normverteidigung trotz Unmöglichkeit des Andershandelns akzeptabel?
3. Welche konkreten Anpassungen des Schuldstrafrechts werden notwendig?
Auf die erste Frage antwortete Bernd Schünemann (München) »konstruktivistisch«: Die »gesellschaftliche Konstruktion der Wirklichkeit«, wie sie sich in der Sprache realisiert habe, setze nun einmal, jedenfalls in Europa, die Idee der Willensfreiheit voraus [1]Vgl. auch schon Schünemann, Die Funktion des Schuldprinzips im Präventionsstrafrecht, in: ders. (Hg.), Grundfragen des modernen Strafrechtssystems, 1984, 153-195, 163 ff.. In der Diskussion wurde klar, dass diese Konstruktion mindestens als kontingent angesehen werden muss. Auf die zweite Frage antworteten Reinhard Merkel (Hamburg) und Rolf Herzberg (Bochum). Merkel rechtfertigte die Schuldstrafe als gesellschaftlich geforderte und notwendige Maßnahme zur Normverteidigung. Therapie werde immer als Prävention verstanden und sei deshalb keine Verteidigung der Norm. Ohne dass der Name gefallen wäre, war doch klar, dass hier Luhmanns Kategorisierung der Normen als lernunwillig festgehaltener Erwartungen herangezogen wurde. Aber doch nur der halbe Luhmann. Ich hatte den Eindruck, dass Strafrechtlicher trotz aller Bemühung um Realismus die partielle Äquivalenz von Maßnahmen und Verfahren mit Sanktionen ausblenden. Herzberg brachte den Gedanken der Charakterschuld ins Gespräch. Dabei ging es nicht um die alte Idee eines Täterstrafrechts, sondern um das Phänomen, dass eine biographische Prägung, die eine konkrete Handlung determiniert, weder das subjektive Freiheitsempfinden noch die Fremdeinschätzung als freie Handlung hindert. Dafür brauche man weder PAM (das Prinzip alternativer Möglichkeiten) noch eine Superfreiheit. In der Diskussion wurde Herzbergs Ansatz »phänomenologisch« genannt und betont, dass seine Vorstellung von Charakterschuld ebenso mit den Thesen des neuronalen Determinismus vereinbar sie wie mit § 20 StGB. Allerdings wurden Zweifel angemeldet, ob das auch für § 3 JGG gelte. Die dritte Frage wurde allgemein dahin beantwortet, es könne im Prinzip alles so bleiben wie es ist. Aber Grischa Merkel (Rostock) setzte doch einen Akzent, indem sie jedenfalls für das Maßnahmenrecht auf Fairness statt Schuld abstellte und den Betroffenen in geeigneten Fällen ein Wahlrecht zwischen Strafe und Maßnahme einräumen wollte. Im Anschluss an ihren Vortrag staunte ein altgedienter Strafrechtler, wie sehr sich durch die laufenden Veränderungen in den §§ 61 ff StGB das Strafrecht längst zum Maßnahmerecht entwickelt habe. Am Rande fielen kritische Bemerkungen zur Unkontrollierbarkeit der Sachverständigen und zum diskretionären Charakter richterlicher Maßnahmeentscheidungen.
Für mich als Außenseiter war mindestens so interessant wie die grundsätzlichen Fragen, was man so am Rande in den Diskussionsbemerkungen erfuhr, z. B.: Auf die Frage, wozu denn wirklich heute die Neurowissenschaften fähig seien, antwortete R. Merkel mit dem Hinweis auf einen Videoclip von der Webseite von Karl Deisseroth (Deisseroth Lab, Stanford), das eine Maus zeigt, die durch einen optischen Reiz auf den Cortex dazu gezwungen wird, gegen den Uhrzeigersinn im Kreis zu laufen. Richtig verstanden habe ich die Bedeutung des Experiments, das auf der Webseite in allen technischen Details beschrieben wird, nicht. Ein halbwegs verständlicher Bericht unter http://www.technologyreview.com/biomedicine/22313/. Anscheinend müssen die Hirnzellen vorher präpariert werden, um derart lichtempfindlich zu werden, und der Lichtimpuls löst dann biochemische Reaktionen aus, die als Belohnung wirken, wie eine Dosis Kokain oder Amphetamin mit der Folge, dass die Maus sich gerne an die Situation erinnert, wo sie den Impuls empfangen hat. Was folgt daraus? Auch früher schon konnte man Tiere und Sklaven mit der Zuckerbrot und Peitsche antreiben, im Kreis zu laufen.
(Beitrag ergänzt am 14. Juni 2009.)
Nachtrag vom 25. 8. 2009: In der Septemberausgabe von Spektrum der Wissenschaft findet sich ein lesenswertes Interview mit dem Neurophysiologen Wolf Singer (S. 74-79). Singer vertritt ja die Auffassung, dass es für verantwortliches Handeln keinen freien Willen im naturwissenschaftlichen Sinne braucht. Das Interview steht im Netz zur Verfügung: http://www.spektrum.de/artikel/1002943

Anmerkungen

Anmerkungen
1 Vgl. auch schon Schünemann, Die Funktion des Schuldprinzips im Präventionsstrafrecht, in: ders. (Hg.), Grundfragen des modernen Strafrechtssystems, 1984, 153-195, 163 ff.

Ähnliche Themen

Kreissl zur soziologischen Zeitdiagnose

Hier einmal wieder ein Kollateralfund. Auf der Rechtssoziologietagung in Luzern gab es am 6. 9. 2008 eine Veranstaltung unter der Überschrift »Citizen by Proxy – Entwicklungstendenzen der rechtlichen Stellvertretung«. Die war mir entgangen, weil ich vorzeitig hatte abreisen müssen. Worum es geht, beschreibt der Organisator der Veranstaltung, Reinhard Kreissl, im Tagungsprogramm:

Der rechtliche Stellvertreter ist eine klassische Figur des modernen Rechtsstaats. Rechtsanwälte, Steuerberater und Notare erfüllen traditionell die Aufgabe, in komplexeren Transaktionen die Interessen ihrer Klienten wahrzunehmen. Neben diesen Experten entstehen zusehends neue Rollen, in denen die Wahrnehmung individueller Rechte und die Erledigung von Rechtsgeschäften i.w.S. an Stellvertreter delegiert werden. Typische Beispiele sind hier etwa Kinderanwälte in Familienrechtsverfahren, Patientenanwälte, Heimbewohnervertreter oder Sachwalter, deren Aufgabe es ist, in lebensweltlichen Kontexten die Rechte ihrer Klientel wahrzunehmen. Neu ist hier, dass zum einen Bereiche, die bisher dem unmittelbaren rechtlichen Zugriff entzogen waren, wie etwa die Familie, jetzt als rechtlich strukturierte Handlungszusammenhänge begriffen werden, in denen die Akteure rechtlich definierte und durchsetzbare Ansprüche haben; zum anderen, dass Individuen, bei denen aufgrund ihrer körperlich-geistigen Verfassung die Kompetenz zur Wahrnehmung ihrer Rechte infrage gestellt wird, ein gesetzlich definierter Rechtsvertreter zugeordnet wird. Diese Entwicklung lässt sich in unterschiedlicher Hinsicht analysieren …

Nun wollte ich der Sache nachgehen, weil das Thema rechtssoziologisch wie rechtstheoretisch interessant ist. Dazu habe ich natürlich die Webseite des Organisators gesucht und bin so auf die Seite des Instituts für Rechts- und Kriminalsoziologie in Wien gestoßen. Dort wird auch eine lange Liste von Manuskripten zum Download angeboten, darunter auch solche, die die neuartige Form der Betreuung behandeln. Die jüngste: Kinderbeistand. Endbericht der Begleitforschung zum Modellprojekt von Brita Krucsay, Christa Pelikan und Arno Pilgram, 2008. Hängengeblieben bin ich jedoch beim Durchblättern der Liste bei dem Manuskript »Soziologische Zeitdiagnose. Vorlesungsnotizen SoSe 2008« von Reinhart Kreissl. Es handelt sich wirklich nur um formlose Notizen. Aber sie sind voller Inhalt, und der Verfasser hält mit seinem Urteil nicht zurück. Ich habe die »Notizen« mit Vergnügen und Gewinn gelesen.

Nachtrag vom 16. Juni 2009 hier.

Nachtrag vom 12. November 2009: Die soziologische Zeitdiagnose arbeitet bekanntlich u. a. mit den Schlüsselbegriffen Erlebnisgesellschaft, Risikogesellschaft, Informationsgesellschaft und Weltgesellschaft. Zu diesen Begriffen habe ich, wieder aus Österreich, ein etwas älteres, aber zum Einstieg immer noch brauchbares Manuskript gefunden: Mörth, Ingo/ Baum Doris (Hg.): Gesellschaft und Lebensführung an der Schwelle zum neuen Jahrtausend. Gegenwart und Zukunft der Erlebnis-, Risiko-, Informations- und Weltgesellschaft. Gesellschaft und Lebensführung an der Schwelle zum neuen Jahrtausend. Gegenwart und Zukunft der Erlebnis-, Risiko-, Informations- und Weltgesellschaft. Referate und Arbeitsergebnisse aus dem Seminar »Soziologische Theorie« WS 1999/2000. Online verfügbar unter http://soziologie.soz.uni-linz.ac.at/sozthe/staff/moerthpub/STSGesellschaft.pdf.

Ähnliche Themen

Begleitseite zur »Allgemeinen Rechtslehre« ist online

Als ich dieses Weblog einrichtete, war es auch als Internet-Begleitseite für das Lehrbuch »Allgemeine Rechtslehre« gedacht. Es hat sich jedoch herausgestellt, dass ein Weblog, das wie dieses mit der Software von WordPress läuft, für den gedachten Zweck nicht geeignet ist, weil es, von der Zuordnung der Beiträge mit Kategorien abgesehen, keine Möglichkeit der systematischen Ordnung bietet. Nach einigem Experimentieren mit verschiedenen Content-Management-Systemen haben wir uns nun für Drupal entschieden, weil für dieses System ein brauchbares Modul bereitgehalten wird, mit dessen Hilfe die Gliederung des Buches als Klappmenu eingegeben werden kann. Auf diese Weise wird die Gliederung zum Wissensmanagementsystem, in dem alle für mitteilenswert gehaltenen Informationen untergebracht werden können. Nun ist die Begleitseite unter der Adresse http://allgemeine-rechtslehre.de/ zu erreichen. Wir, die Autoren, hoffen, dass sie Anklang findet.

Ähnliche Themen

Transnationalisierung der deutschen Rechtswissenschaft

Globalisierung und in ihrer Folge die Transnationalisierung des Rechts sind Thema der Allgemeinen Rechtslehre und ebenso der Rechtssoziologie. Bemerkenswert sind deshalb zwei Internetquellen, in denen sich die Transnationalisierung der deutschen Rechtswissenschaft zeigt.
1. German Law Journal. Review of Developments of German, European & International Law (GLJ). Dieses E-Journal existiert seit 2001 und hat sich seither nicht nur zu einem Vermittler deutschen Rechts für die englischsprachige Welt, sondern auch zu einem wichtigen Forum für die Rechtstheorie im weiteren Sinne entwickelt. In NJW-aktuell 17/2009 S. XVI f. wird es von den Herausgebern, Prof. Dr. Peer Zumbansen, LL.M., Toronto, und Prof. Russell A. Miller, LL.M., Lexington, VA, vorgestellt. Zumbansen wurde bekanntlich auf der Jahrestagung der Vereinigung für Rechtssoziologie in Luzern 2008 der Hoffmann-Riem-Preis verliehen. So ist die Interdisziplinarität des GLJ kein Zufall. Sie zeigt sich zuletzt im Aprilheft, einem Themenheft »The Law of the Network Society. A Tribute to Karl-Heinz Ladeur«.
2. Rechercheplattform zum transnationalen Recht
Seit April 2009 unterhält das Center for Transnational Law (CENTRAL) an der Universität zu Köln diese Rechercheplattform zum transnationalen Recht. Spiritus rector ist Professor Dr. Klaus Peter Berger, LL.M., der an der Universität Köln auch als Direktor des Instituts für Bankrecht fungiert.
Die Plattform besteht aus vier Bereichen.
Principles: Eine Zusammenstellung von über 120 Prinzipien des transnationalen Wirtschaftsrechts, der »Neuen Lex Mercatoria«. Neben dem Text des jeweiligen Prinzips (z.B. »Force majeure«, »hardship«, »venire contra fact Continue reading

Ähnliche Themen

Eine Diskussion über H. L. A. Harts Anerkennungsregel

Was für die Rechtstheorie in Österreich und Deutschland Kelsens Grundnorm, das ist für England und die USA Harts »rule of recognition«. Der Unterschied liegt darin, dass die Grundnorm (wie ich sie verstehe) eine bloße Denkvoraussetzung in Sinne der Philosophie des Als-Ob bildet, während die rule of recognition eine empirisch greifbare Basisnorm meint, die allerdings nicht als förmlicher Rechtstext gefasst sein muss. Der richtige Vergleichspunkt für die rule of recognition ist daher gar nicht die Grundnorm, sondern die höchste positive Norm im Stufenbau der Rechtsordnung. Wenn man konkret auf eine bestimmte Rechtsordnung sieht, so geht es um die zentralen Kompetenznormen der Verfassung. In der Allg. Rechtslehre (S. 318 f.) ordnen wir die Lehre Harts als Anerkennungstheorie ein. Aber das ist doch sehr grob.
Wer einen feineren Theorievergleich unternehmen will, dem hilft jetzt ein Aufsatz von Scott J. Shapiro, What is the Rule of Recognition (and Does it Exist)? Und vielleicht das ganze Buch, in dem er erscheinen soll (The Rule of Recognition And the U.S. Constitution, herausgegeben von Matthew Adler und Kenneth Himma, Oxford University Press, 2009). Shapiros Aufsatz (auf den ich natürlich einmal wieder durch Lawrence L. Solum aufmerksam geworden bin) steht jedenfalls zur Zeit noch bei SRRN zum Abruf bereit.
Hier das Abstract:

One
of the principal lessons of The Concept of Law is that legal systems are not only comprised of rules, but founded on them as well. As Hart painstakingly showed, we cannot account for the way in which we talk and think about the law – that is, as an institution which persists over time despite turnover of officials, imposes duties and confers powers, enjoys supremacy over other kinds of practices, resolves doubts and disagreements about what is to be done in a community and so on – without supposing that it is at bottom regulated by what he called the secondary rules of recognition, change and adjudication.

Given this incontrovertible demonstration that every legal system must contain rules constituting its foundation, it might seem puzzling that many philosophers have contested Hart’s view. In particular, they have objected to his claim that every legal system contains a rule of recognition. More surprisingly, these critiques span different jurisprudential schools. Positivists such as Joseph Raz, as well as natural lawyers such as Ronald Dworkin and John Finnis, have been among Hart’s most vocal critics. In this essay, I would like to examine the opposition to the rule of recognition. What is objectionable about Hart’s doctrine? Why deny that every legal system necessarily contains a rule setting out the criteria of legal validity? And are these objections convincing? Does the rule of recognition actually exist?

This essay has five parts. In Part One, I try to state Hart’s doctrine of the rule of recognition with some precision. As we will see, this task is not simple, insofar as Hart’s position on this crucial topic is often frustratingly unclear. I also explore in this part whether the United States Constitution, or any of its provisions, can be considered the Hartian rule of recognition for the United States legal system. In Part Two, I attempt to detail the many roles that the rule of recognition plays within Hart’s theory of law. In addition to the function that Hart explicitly assigned to it, namely, the resolution of normative uncertainty within a community, I argue that the rule of recognition, and the secondary rules more generally, also account for the law’s dexterity, efficiency, normativity, continuity, persistence, supremacy, independence, identity, validity, content and existence. In Part Three, I examine three important challenges to Hart’s doctrine of the rule of recognition. They are: 1) Hart’s rule of recognition is under- and over-inclusive; 2) Hart cannot explain how social practices are capable of generating rules that confer powers and impose duties and hence cannot account for the normativity of law; 3) Hart cannot explain how disagreements about the criteria of legal validity that occur within actual legal systems, such as in American law, are possible. In Parts Four and Five, I address these various objections. I argue that although Hart’s particular account of the rule of recognition is flawed and should be rejected, a related notion can be fashioned and should be substituted in its place. The idea, roughly, is to treat the rule of recognition as a shared plan which sets out the constitutional order of a legal system. As I try to show, understanding the rule of recognition in this new way allows the legal positivist to overcome the challenges lodged against Hart’s version while still retaining the power of the original idea.

Ähnliche Themen

»Anti-Court-Movement«

Unter dem Chief Justice Earl Warren war der US Supreme Court eine Speerspitze des Liberalismus. Inzwischen dominieren unter Rehnquist und nach dessen Tod seit 2005 unter John Roberts konservative Kräfte das Gericht, und sie kassieren Gesetze und Präjudizien, die nicht nach ihrem Geschmack sind. So jedenfalls sieht es eine wachsende Gruppe linksliberaler Rechtswissenschaftler in den USA, die deshalb auf unterschiedliche Weise die Macht des Verfassungsgerichts zurückdrängen wollen. Ihre Kritik richtet sich nicht speziell gegen die Entscheidung bestimmter einzelner Fälle, sondern sie machen geltend, dass Gericht zu viele Fälle an sich ziehe und zu wenig Entscheidungen der Politik überlasse. Anwälte und Gerichte behandelten Konflikte, die besser durch das Wahlvolk entschieden würden. In einer Rezensionsabhandlung in Law & Social Inquiry 33 (2008) 1071-1110 geht Josh Benson diesem »Anti-Court-Movement« nach. Dazu bespricht er Bücher von Larry D. Kramer (The People Themselves: Popular Constitutionalism and Judicial Review, 2004), Jeffrey Rosen (The Most Democratic Branch: How the Courts Serve America, 2006) Cass R. Sunstein (One Case at a Time: Judicial Minimalism and the Supreme Court, 1999) und Mark V. Tushnet (Taking the Constitution Away from the Courts, 1999). Diese Kritik, so Benson, habe in der politischen Öffentlichkeit eine enorme Wirkung. »Restraint« und »minimalism« seien zu neuen Leitideen geworden. Neben der ökonomischen Analyse des Rechts könnte das »Anti-Court-Movement« zum stärksten Impuls werden, der von der Wissenschaft in den letzten Jahrzehnten ausgegangen sei. In seinem lesenswerten Besprechungsaufsatz geht Benson den historischen Wurzeln und den aktuellen Ausprägungen dieser Gerichtskritik nach, nicht ohne auf die Dilemmata der liberalen Minimalisten hinzuweisen: Den judicial activism des Warren Court fanden sie gar nicht so schlecht. Und der Richter John Roberts, der sich 2005 bei seiner Anhörung im Parlament als Minimalist gab, scheint sich nun doch ganz anders entwickelt zu haben.
Benson endet:

In the 1930s, the first liberal Anti-Court Movement bloomed. Its history, though tumultuous, is at least familiar. The Anti-Court idea is one liberals habe embraced before, then turned against, then embraced again. As Mark Twain observed, the past does not repeat itself, but it rhymes.

Das schöne Twain Zitat ergibt den Titel von Bensons Essay.
Hier noch zwei Internetquellen zum Thema:
In einer ausführlichen Rezension des Buchs von Larry D. Kramer, The People Themselves, haben Larry Alexander und Lawrence B. Solum dem Konzept des Popular Constitutionalism Unklarheit und Widersprüchlichkeit vorgehalten: Popular? Constitutionalism?, Harvard Law Review 118 (2005) 1594-1640. Verfügbar bei SSRN: http://ssrn.com/abstract=692224.
Ob der »Roberts Court« tatsächlich als konservativ gelten muss, ist durchaus kontrovers. Dazu Jonathan H. Adler, Getting the Roberts Court Right: A Response to Chemerinsky (November 2008), verfügbar bei SSRN: http://ssrn.com/abstract=1307177. Aus dem Abstract:

Reviewing the Court’s decisions over the past three years, Dean Chemerinsky concludes that the Roberts Court is the “the most conservative Court since the mid-1930s.” This is a substantial overstatement. The Roberts Court appears moderately more “conservative” than its predecessors in some contexts, but is also quite “liberal” in others. Its decisions on enemy combatants, capital punishment, and standing, among other issues, could hardly be characterized as “conservative,” however this term is defined. Furthermore, any assessment of the Roberts Court at this point is necessarily tentative. The current roster of justices have sat together for less than three full terms, and the small size of the docket means any single term provides an unrepresentative picture of the Court’s jurisprudence. While the Roberts Court may eventually show itself to be a conservative court, there is no basis at present to claim the Court is the “most conservative” in over seventy years.

Ähnliche Themen

Tamanaha über das problematische Erbe der Legal Realists

Brian Z. Tamanaha ist einer der aktivsten und interessantesten Autoren auf dem Gebiet der Rechtssoziologie und Rechtstheorie in den USA. Er versteht es immer wieder, lang eingefahrene Gedankengänge aus dem Gleis zu werfen. Im Social Science Research Network (SSRN) sind zurzeit fünf jüngere Arbeiten verfügbar. Die vollständigen bibliographischen Angaben kommen gleich ins Fundbüro. Hier nur die Titel und der Link:
A Concise Guide to the Rule of Law (2007)
The Dark Side of the Relationship between the Rule of Law and Liberalism, Januar (2008)
Law (Oxford International Encyclopedia of Legal History, 2008)
The Bogus Tale About the Legal Formalists (April 2008)
Understanding Legal Realism (Mai 2008)
The Distorting Slant of Quantitative Studies of Judging (November 2008).
In der letztgenannten Arbeit kritisiert Tamanaha die Politikwissenschaft, die sich bei ihren Untersuchungen über richterliches Entscheidungsverhalten von einem Mythos leiten lasse. Rechtssoziologie im 20. Jahrhundert wäre ohne die Legal Realists nicht denkbar. Aber sie haben ein problematisches Erbe hinterlassen, nämlich die Vorstellung, dass Juristen, Richter wie Wissenschaftler, tatsächlich selbst an das Lückenlosigkeitsdogma und das Subsumtionsdogma geglaubt hätten. Die Legal Realists haben aber nur explizit gemacht und auf die Spitze getrieben, was Juristen eigentlich immer schon wussten. Das hatte jedoch zur Folge, dass nunmehr die Vorstellung, Juristen hätten tatsächlich an die Möglichkeit einer mechanischen Jurisprudenz geglaubt, das 20. Jahrhundert beherrschte. Tamanaha spricht von einem »Bogus Tale about the Legal Formalists«. Darauf hat sich alsbald die Politikwissenschaft gestürzt, um nachzuweisen, dass im Gegenteil alles Recht politisch sei. In ihrer Fixierung auf einen Popanz habe sie dabei übersehen, dass die Wahrheit in der Mitte liege und dass eben doch juristische Entscheidungen mehr oder weniger durch Recht geleitet würden. Hier Tamanahas eigene Zusammenfassung:

One of the hottest areas of legal scholarship today involves quantitative studies of judging. This article will attempt to shift the current orientation of this work by making two basic points. The first point is that the field was born in a collection of false beliefs and misunderstandings about the formalists and the realists which has distorted how political scientists have modeled judging and how they have designed and interpreted their studies. Rather than conduct an open inquiry into the nature of judging, political scientists set out to debunk formalism by proving that judging is infused with politics, a mission that warped the development of the field.
The second point is that the results of their studies below the Supreme Court strongly confirm what judges have been saying for many decades – that their judicial decisions are substantially determined by the law. Political scientists have tended to repress this finding, however, by focusing on the wrong point: repeating time and again that their studies show that politics matters without also emphasizing that it matters very little. A balanced realism about judging accepts that – owing to the uncertainty of law and the inherent limitations of human decision makers – it is inevitable that there will be a certain (minimal) degree of political influence in judicial decision making, but this does not detract from the broader claim that judges can and usually do rule in accordance with the law.

Nachtrag vom 24. Mai 2010:
Die drei zuletzt genannten Manuskripte Tamanahas sind in sein in diesem Jahr bei Princeton University Press erschienenes Buch »Beyond the Formalist-Realist Divide« eingegangen. Auf die ersten beiden habe ich noch einmal in einem Posting vom 14. Mai 2010 Bezug genommen.

Ähnliche Themen

Lawrence B. Solum über Modelle der Regulierung des Internets

In der Juristischen Fakultät der Ruhr-Universität bietet die Mittwochsrunde ein Forum vor allem für Gastvorträge und Diskussionen. Diese Einrichtung, früher als Dienstagsrunde bekannt, ist schon über zehn Jahre alt. Die Organisation liegt bei Prof. Dr. Tatjana Hörnle.

Am vergangenen Mittwoch gab es wieder einen anregenden Vortrag und eine gehaltvolle Diskussion. Den Vortrag hielt Prof. Lawrence B. Solum von der University of Illinois, College of Law. Sein Thema waren »Models of Internet Governance«. Es geht dabei um die Frage, wie die Teilnahme am Internet, die Anwendungen und die Inhalte reguliert werden können. In der Rechtssoziologie ist die Regulierung des Internets zum Paradebeispiel für Selbstregulierung geworden. Mit Vorliebe wird das Thema in elaborierte Systemtheorie verpackt. Solum lieferte ein Kontrastprogramm und zeigte, wie man mit sparsamem theoretischem Aufwand gehaltvoll argumentieren kann. Er ließ zwar keinen Zweifel, dass das Internet mit Rücksicht auf seine Architektur und die daraus folgenden Kapazitäten nicht einfach nur ein Regelungsgegenstand unter anderen sei, und deshalb nationaler, internationaler oder transnationaler Regulierung besonderen Widerstand biete. Aber das Modell des Cyberspace als einer Welt außerhalb der Reichweite des Rechts verwarf er als romantisch und naiv. Im Übrigen erörterte er die Reichweite von vier Modellen: 1. eine Regulierung durch transnationale Institutionen und internationale Organisationen, die von der Annahme ausgeht, dass das Internet nicht an nationalen Grenzen Halt macht, 2. ein technokratisches Modell, nach dem die Regulierung des Internets durch Kommunikationsprotokolle und Software erfolgt, die das Internet in Betrieb halten; 3. Regulierung durch nationalstaatliche Gesetzgebung und 4. eine Regulierung des Marktes ausgehend von der Annahme, dass die Kräfte des Marktes die Weichen für die Entwicklung des Internet stellen. Ein ausgearbeitetes Manuskript steht auf den Servern des SSRN (Social Science Research Network) zur Verfügung: http://papers.ssrn.com/sol3/papers.cfm?abstract_id=1136825.

Faszinierend an dem Vortrag war nicht zuletzt die Art und Weise, wie Solum die Regulierungsmöglichkeiten durchgehend auf die technischen und organisatorischen Besonderheiten des Internet zurückführte und diese jeweils mit einer Mischung von Kompetenz und Verständlichkeit erläuterte, die ihresgleichen sucht.

In der anschließenden Diskussion und weiteren Unterhaltungen erfuhr man, dass die Jurisprudenz und darüber hinaus mindestens alle Geistes- und Sozialwissenschaften in den USA viel stärker als wir in Deutschland das WorldWideWeb als Kommunikationsforum nutzen. Viele Autoren, darunter auch Solum selbst, machen die Veröffentlichung von Manuskripten davon abhängig, dass sie im Web frei verfügbar sind. Wissenschaftsblogs werden mehr oder weniger selbstverständlich, und Google als universale Suchmaschine verdrängt Kataloge und Datenbanken. Einen guten Eindruck von dieser Internetaffinität vermittelt Solums eigene Webseite mit einem »Legal Theory Lexicon« und einem Blog (die ich mit gutem Grund schon länger in Linkliste und Blogroll aufgenommen habe).

Nachtrag vom 16. 11. 2008: Wer sich für das Thema interessiert, sei verwiesen auf Vranaki, ‘The Regulation of Cyberspace: Control in the Online Environment’, Book Review, 2008 (1) The Journal of Information, Law and Technology (JILT). http://www2.warwick.ac.uk/fac/soc/law/elj/jilt/2008_1/vranaki.

Ähnliche Themen