Archiv für die Kategorie ‘Recht und Medienwandel’

Eine Konvergenztheorie des Wissens (5. und letzte Fortsetzung)

Gründe 81-92
Wissensnetzwerke

81. Die Konvergenz des Wissens zeigt sich unterschiedlich stark je nach dem Modus seiner Anordnung. Scholastische Wissensübersichten waren hierarchisch aufgebaut. Die klassischen Enzyklopädien ordneten das Wissen seriell alphabetisch. Heute gilt es als ausgemacht, dass Wissen als vernetzt vorgefunden wird und/oder als Netz angeordnet werden kann. Zwar kann man auch eine hierarchische und eine serielle Anordnung von Elementen als Netzwerk behandeln. Gemeint sind aber Netzwerke, deren Kanten allein durch die Semantik der Knoten bestimmt werden.

82. Wissensnetze sind semantische Netze. Jedes Wissenselement muss anschlussfähig sein, um vernetzt werden zu können. Deshalb liegt die Vermutung nahe, dass nicht anschlussfähiges Wissen verloren geht. Tatsächlich ist aber wohl jedes Wissenselement anschlussfähig, denn keines ist voraussetzungslos entstanden. Wir stehen nicht nur auf den Schultern von Riesen, sondern auch auf denen von Zwergen. Und wenn es nicht so wäre: Was nicht passt, wird passend gemacht.

83. Man greift auf ein Wissenselement in der Regel nicht direkt zu, sondern nähert sich ihm von benachbarten Anschlüssen her.

84. Das Wissen der Welt ist als sekundäres mehr oder weniger vollständig im Internet versammelt.

85. Das technische Netz des Internet ist nicht selbst ein Wissensnetz. Aber es produziert Wissensnetze und vermittelt den Zugang zu ihnen.

86. Das Internet fügt viele separierte Wissensnetze zusammen.

87. Was nicht im Netz (des Internet) ist, zählt und wirkt nicht als Wissen.

88. Einem Vortrag von Thomas Vesting habe die These entnommen, dass das Buch sich durch einen »Sinn für Abgeschlossenheit« auszeichnet, während der Computer zu fortgesetztem Überschreiben auffordert. Mit der Computerkultur sei die »Zeit der Systeme« abgeschlossen. Es gebe immer nur vorübergehende Interpretationen von Wahrheit und Gerechtigkeit1 Auch Fortschreibungen und Überschreibungen können sich als Konvergenzen erweisen. Konvergenz muss nicht statisch sein.

89. Die Wissenschaftssoziologie von Ludwik Fleck über Thomas S. Kuhn bis hin zu Bruno Latour, Steve Woolgar und Karin Knorr-Cetina hat mit der These, dass es sich bei den Produkten der Wissenschaft um kontextspezifische Konstruktionen handle, die durch »Situationsspezifität und Interessenstrukturen, aus denen sie erzeugt wuden, gezeichnet sind«.2 Sieht man einmal davon ab, dass die damit behauptete Relativität wissenschaftlicher Propositionen sich mehr auf die Wahl der Forschungsthemen und Methoden bezieht als auf die Validität der Ergebnisse, so ist das Internet eine relativ kontextfreie Zone, in der sich die Konvergenz kontextrelativer Propositionen erweisen kann.3

90. Die Wissenschaftstheorie weist inkompatible Varianten auf mit der Folge, dass institutionalisierte Wissenschaft in vielen Fällen als Zertifizierungsinstitution des Wissens versagt4. So übernehmen die Datenverarbeitung und insbesondere auch das Internet durch die Ermittlung von Konvergenzen und Divergenzen mindestens ergänzend die Aufgabe der Zertifizierung wissenschaftlichen Wissens.

91. Das Internet erzeugt im Unterschied zu dem spontan, methodisch oder im Diskurs erreichten Konsens Konvergenz durch Akkumulierung.

92. Quantitativ ermittelte Konvergenz ist keine Garantie für Qualität, wird aber mangels Alternative zum Qualitätsersatz.


  1. Vgl. den Eintrag vom 15. 4. 2011. 

  2. K. Knorr-Cetina, Die Fabrikation von Erkenntnis, 2. Aufl., 2002, 25. 

  3. »Stärker als die vielleicht ja lösbaren technischen Herausforderungen stellt sich die kulturelle Grundfrage des verteilt und vernetzt gespeicherten Wissens. Globalisierung heißt kulturelle Dekontextualisierung. Wissen entsteht bisher in einer Zeit, an einem Ort, in einer Kultur, das Netz ist aber gleichzeitig und überall. Seine kulturelle Vorgaben sind ihm in Kalifornien und Massachusetts mitgegeben worden. Das Netz reißt Wissen in globalem Maße aus seinen zeitlichen und räumlichen kulturellen Kontexten heraus und stellt Wissen unterschiedlichster Güte und Art beziehungslos nebeneinander. Content und Kontext sind freilich nicht unabhängig voneinander und der Verlust des kulturellen Kontextes devaluiert den Inhalt.« (Wolfgang Coy, a. a. O.). 

  4. Ulrich Wengenroth, Zur Einführung: Die reflexive Modernisierung des Wissens, in: ders. (Hg.), Grenzen des Wissens, 2012, 7-22, S. 8, 19. 

Related Posts:

Tags: ,

Eine Konvergenztheorie des Wissens (4. Fortsetzung)

Gründe 66-80
Das Internet als Konvergenzmaschine

66. Das Internet steht hier als Kürzel für alle Möglichkeiten der elektronischen Dateinspeicherung und Verarbeitung. Für den Konvergenzeffekt wichtiger als das Jedermann-Internet sind vermutlich elektronische Zeitschriften und andere professionelle Datenbanken, die zwar in der Regel über das Internet erreicht werden, aber keinen freien Zugang anbieten.

67. »Medial gespeichertes und kommuniziertes Wissen gibt es in enormer Quantität, aber von sehr unterschiedlicher Qualität. Die Wissenschaften, aber auch Philosophie, Staat oder Religion haben sich über Jahrhunderte bemüht, Ordnung in das aufbewahrte Wissen zu bringen – mit unterschiedlichen Ansprüchen und unterschiedlichem Erfolg. Qualitätssicherung kann durch religiöse, politische oder rechtliche Entscheidung erfolgen. Das Gesetz ist im Prozeß der Rechtsprechung zu interpretieren, aber es darf von dieser nicht mißachtet werden. Das ist eine politische Entscheidung. Inkonsistenzen der Bibel sind als Emanationen des göttlichen Willens hinzunehmen. Das ist eine theologische Entscheidung. In den Wissenschaften gibt es andere entwickelte Mechanismen der Qualitätssicherung, etwa durch klare Abgrenzung des Geltungsbereichs aufgestellter Behauptungen, durch die Angabe intersubjektiv überprüfbarer Entscheidungsverfahren oder durch prüfbare Nachweise. Trotzdem ist auch die Wissenschaft nicht frei von Bedingtheiten und Befangenheiten. Kulturelle Traditionen und Rücksichten, der paradigmatische Kontext wissenschaftlicher Arbeit und wissenschaftlichen Denkens oder die Fixierung zulässiger Methoden bilden neben den auch vorhandenen, autoritären Aspekten wissenschaftlicher Schulen Schranken für eine globale, zeitlich unbeschränkte Gültigkeit wissenschaftlichen Wissens. Betrachten wir den Stand der Qualitätssicherung in den unterschiedlichen Medien, so können wir angesichts ihrer Resultate letztlich nur resignieren. Es mag in einzelnen wissenschaftlichen oder rechtlich abgesicherten Bereichen gelungen sein, Wissen nach Qualitätsstandards aufzubereiten, eine allgemein akzeptierte, interkulturelle Qualitätssicherung des Wissens gibt es jedoch nicht. Und selbst in den scheinbar gesicherten Arealen der Wissenschaft herrscht ein munterer Pluralismus, der neben Sympathie und wechselseitiger Hilfe auch Abneigung, Mißgunst und Boshaftigkeit kennt, also Emotionen, die der Qualitätssicherung gelegentlich im Wege stehen.«1

68. Konvergenz ist keine Garantie für Qualität, wird aber mangels Alternative zum Qualitätsersatz.

69. Das Internet erzeugt im Unterschied zu dem spontan, methodisch oder im Diskurs erreichten Konsens Konvergenz durch Akkumulierung.

70. Die traditionelle Konvergenzmaschine war die Synopse. Sie war und ist leistungsfähig, bleibt aber doch in der Regel das Werk einzelner Autoren und hängt insofern an deren Kompetenzen und Kapazitäten. Das Internet macht Konvergenzen und – weniger effektiv – Divergenzen ohne (viel) subjektive Wissensarbeit kenntlich.

71. Im »Web of Science« zeigen und verstärken sich die Konvergenzen durch Zitationsanalysen und andere bibliometrische Daten wie Impact Factor und Hirsch-Index.

72. »Hypertextsysteme erscheinen als eine Möglichkeit, intertextuelle Bezüge, die bis dahin latent waren, in manifeste Bezüge – in Links eben – zu überführen und damit Strukturen nachzuzeichnen, die quer zu den linearen Syntagmen die verschiedenen Texte immer schon verbinden.«2 Diese Möglichkeit hängt nicht davon ab, ob es möglich sein wird Hypertext-Maschinen zu programmieren3

73. Ein Schritt zur Konvergenz liegt in der Anonymisierung des Wissens, das heißt, in seiner Ablösung von Autoren und Autoritäten.4 Das Netz trägt mindestens auf dreierlei Weise zur Anonymisierung bei, nämlich erstens durch die Schwierigkeiten einer schulgerechten Zitation5, zweitens durch die Fülle der Texte, die den eigentlichen Urheber oft nicht mehr erkennen lässt6, und drittens natürlich durch unbekümmertes Copy and Paste.

74. Weiter in Richtung Konvergenz wirkt das zunehmende Desinteresse an der Genese von Wissen, das durch die Kombination von Informationsflut und Medienbeschleunigung getrieben wird. Damit gehen vielfältige Divergenzen etwa verschiedener Textversionen bestimmter Autoren, an denen sich die Wissenschaft abarbeitet, verloren.

75. »Na klar stimmt das, ich hab’s aus dem Netz«.7 Gemeint ist damit die Autorität des Netzes als Wissensquelle. So wie das gedruckte Buch hat auch das Netz per se Autorität, die auf alle darin auffindbaren Propositionen durchschlägt. Diese Autorität tritt aber mehr und mehr in den Hintergrund, erstens weil es inzwischen zum Allgemeinwissen gehört, dass im Internet viel Unsinn zu finden ist, und zweitens, weil das Internet zu fast jeder Frage nicht bloß eine, sondern mehrere Antworten herausgibt. Von den Antworten sind viele irrelevant, oft zeigt sich Übereinstimmung, nicht selten auch Divergenz.

76. Das Anwortspektrum des Internet ist von der Suchstrategie des Nutzers abhängig. Wie trennt man die Spreu vom Weizen? Von Pirolli und Card stammt die Theorie der optimalen Futter- bzw. Informationssuche (Information Foraging).8 Dazu bieten die Informationswissenschaften Theorien und empirische Forschung, die vielleicht weiter helfen.9

77. Die Technik der Internetsuchmaschinen führt zu einer Positivauslese, weil häufiger angeklickte Webseiten einen besseren Rang erhalten und so bei weiteren Suchvorgängen bevorzugt angeboten werden.

78. Technisch gehen in Datenbanken keine abweichenden Inhalte verloren. Grundsätzlich kann alles wiedergewonnen werden. Praktisch gibt es aber auch eine Negativauslese, mit der Folge, dass selten nachgefragte Webseiten bei den Suchmaschinen zurückgestellt werden, bis sie niemand mehr nachschlägt.

79. Medienumbrüche führen zu einer »natürlichen« Auslese. Gedruckt wurde nur noch, was relevant und zutreffend erschien. Auch die Dauerarchivierung von Büchern durch Digitalisierung bringt Verluste. Nach der Digitalisierung sieht es auf den ersten Blick anders aus. Aber die digitalen Medien veralten. Sie müssen im Abstand von etwa einem Jahrzehnt umkopiert werden, um lesbar zu bleiben. Dabei wird wiederum bewusst oder unbewusst eine Auswahl getroffen.

80. Inzwischen sind viele, wenn nicht die meisten wissenschaftlichen Bücher eingescannt und bei Google Books aufrufbar. Zwar gibt es immer nur Bruchstücke des Buches zu lesen. Die Suchfunktion durchsucht jedoch auch die nicht abrufbaren Seiten und zeigt die Stichwörter dann mit einem kurzen Kontext auf dem Bildschirm an. Sie findet oft mehr Stichwörter als im Stichwortverzeichnis angegeben.10


  1. Wolfgang Coy, turing@galaxis.comII, in: ders./Martin Warnke (Hg.), HyperKult, 2005, 15-32, S. 17f. Im Netz als Vortragsmanuskript von 1997 unter dem Titel <a href="http://waste.informatik.hu-berlin.de/coy/Hamburg_11_96.html">»Überall & gleichzeitig. Informatik, Digitale Medien und die Zukunft des Wissens«</a>. 

  2. Hartmut Winkler, Docuverse, 1997, S. 43f. 

  3. Dazu kritisch Winkler a. a. O. S. 44ff. 

  4. Zur Bedeutung der Autorschaft bei wissenschaftlichen Texten vgl. Felix Steiner, Dargestellte Autorschaft, Autorkonzept und Autorsubjekt in wissenschaftlichen Texten, 2009. 

  5. Eine schulgerechte Zitation von wissenschaftlichen Texten hat wohl grundsätzlich zwei Ziele. Das erste und wichtigere ist die Vermeidung von und der Schutz vor Urheberrechtsverletzungen und Plagiaten. Das andere Ziel ist die Kenntlichmachung der Genealogie von Ideen. Darauf verweist der Quellenbegriff. Für beide Ziele ist es mehr oder weniger notwendig, dass die Zitation das Zitat reproduzierbar macht. Die Reproduzierbarkeit hängt allerdings nicht allein von der Zitation, sondern auch vom Medium ab. Texte in Büchern und Zeitschriften sind relativ stabil, Texte im Internet dagegen sind relativ änderbar und flüchtig. Dagegen soll angeblich die Angabe des Abrufdatums helfen, tut sie aber nicht. Technische Mittel wie die Internetdienste Webcite oder Internet Archive sind unpraktisch und auch nicht verlässlich. Das Medium regiert auch die äußere Gestalt der Zitation. Bücher und Zeitschriften sind mit den üblichen Zitierweisen dank des ausgefeilten Katalogsystems erstaunlich gut auffindbar. In der Regel wird bei der Zitation zuviel des Guten getan. Erscheinungsort und Verlag, sind, jedenfalls bei inländischen Büchern, überflüssig, ähnlich bei Zeitschriften die Angabe des Jahrgangs. Das beweist ihr weitgehendes Fehlen dieser Angaben in den Nachweisen der juristischen Literatur. Verlags- und Jahrgangsangaben sind daher vor allem ein Indiz für die Qualität der Quelle. Übervollständige Zitationen dienen vielen Autoren vielleicht auch dazu, die Sorgfalt ihrer Arbeitsweise zu demonstrieren. Sie belasten dagegen die Lesbarkeit und Ästhetik des Textes. Das gilt verstärkt für die URL von Internettexten. In Internettexten selbst werden die URL von Internetquellen das vielfach als Hyperlink versteckt. Bisher gibt es keine praktikable Möglichkeit, Hyperlinks unmittelbar aus gedruckten Quellen aufzurufen. Das Eintippen oder Einscannen der URL ist nicht sehr attraktiv und in der Regel auch überflüssig, weil die Quelle sich einfacher ergugeln lässt. Unter diesen Umständen wird die Kehrseite der Zitationspflicht immer wichtiger, die darin besteht, den Autor vor Plagiatsvorwürfen zu schützen. 

  6. Das zeigt das Beispiel der Wissenskugel oben bei Nr. 20. 

  7. Überschrift von Stefan Weber in der FAZ Nr. 104 vom 6. 5. 2009 S. N3. Vgl. dazu den <a href="https://www.rsozblog.de/rechtssoziologisches-zum-urheberrecht/">Eintrag vom 14. 4. 2010</a>. 

  8. Peter Pirolli/Stuart K. Card, Information Foraging, Psychological Review 106, 1999, 643-675; Peter Pirolli, Information Foraging Theory. An Adaptive Interaction with Information, Oxford University Press 2007. 

  9. Z. B. Yvonne Kammerer, Separating the Wheat from the Chaff: The Role of Evaluation Instructions. User Characteristics, and the Search Interface in Evaluating Information Quality During Web Search, 2011; dies./Peter Gerjets, Quellenbewertungen und Quellenverweise beim Lesen und Zusammenfassen wissenschaftsbezogener Informationen aus multiplen Webseiten, Unterrichtswissenschaft 42, 2014, 7-23. 

  10. Von dieser Möglichkeit habe ich in dem<a href="https://www.rsozblog.de/travelling-models-vi-no-transportation-without-transformation/"> Eintrag vom 20. 11. 2014</a> (bei Fußnote 21 und 25) Gebrauch gemacht. Im Register des »Handbuchs Wissenssoziologie« kommt »Konvergenz« nicht vor. Google Books zeigt von diesem Band zwar keine Textseiten, gibt aber auf Nachfrage Auskunft, dass der Begriff auf sechs Seiten des Buches erscheint, zeigt allerdings nur drei von sechs Suchergebnissen (S. 553, 768 und 771. 

Related Posts:

Tags: ,

Eine Konvergenztheorie des Wissens (3. Fortsetzung)

Gründe 52-65
Wissensrecycling und Redundanz

52. Die zeitgenössische Version eines naiven Fortschrittsglaubens äußert sich in der Rede von einer immer kürzeren Halbwertszeit des Wissens. Doch was veraltet, sind konkrete Fragen, Instrumente zu ihrer Beantwortung und die damit gewonnenen Daten. Das systematische Wissen über die Gesellschaft und ihr Recht zeigt dagegen eine erstaunliche Beständigkeit oder Kontinuität, so dass auch heute noch nicht nur Philosophen, sondern auch manche Rechts- und Sozialwissenschaftler mit Platon und Aristoteles diskutieren, als seien sie Zeitgenossen. Epochenumbrüche, wie sie von Kuhn als Paradigmenwechsel vorgestellt worden sind, waren nie so radikal, dass sie eine tabula rasa hinterlassen hätten.

53. Wissensrecycling: Das vorhandene Wissen wird etwa alle dreißig Jahre recycelt, ohne als Neuauflage erkennbar zu sein. Die zurzeit so beliebte Jagd nach Plagiaten wirkt vor diesem Hintergrund eher beckmesserisch.1

54. Die Warenwelt hat in die Wissenschaft Einzug gehalten. Die Produktion von Literatur ist billig geworden, nachdem Herausgeber und Autoren auch Lektorat und Layout der Texte übernommen haben und von den Verlegern keine Vegütung mehr erhalten. Verlage wie C. H. Beck, Springer, Hart Publishing, Oxford University Press u. a. mehr produzieren laufend schöne und teure neue Bücher, in denen wenig Neues steht. Es traut sich niemand, Literatur, die sich selbst als wissenschaftlich deklariert, für überflüssig zu erklären.

55. Wann immer man liest, die Literatur zu einer bestimmten Frage sei unübersehbar geworden,2 wird es Zeit die Masse dieser Literatur zu vergesen.

56. Ein Indiz für die Konvergenz des Wissens ist die zunehmende Verwendung von Sekundärliteratur – der ich mich – mindestens in dieser Reihe von Einträgen – anschließe.

57. In den Naturwissenschaften gibt es zum Teil eine Praxis des Reviews, die den Rückgriff auf ältere Texte abschneidet. Dazu werden periodisch an prominenter Stelle zusammenfassende Darstellungen der Forschungsergebnisse veröffentlicht mit der Folge, dass man sich künftig nicht mehr auf die Originalliteratur bezieht. In der Rechtswissenschaft treten an die Stelle solcher Reviews die Kommentare. Für Philosophie und Sozialwissenschaften ist dagegen die Zusammenführung des Wissens kaum institutionalisiert. Immerhin gibt es hier und da eine Diskussion über die Kanonisierung des Wissens.3

58. Als Indiz für die Konvergenz des Wissens taugt auch das Phänomen Wikipedia. Hier entsteht Konvergenz durch gemeinschaftliche Textarbeit. »Ein Wiki ist so etwas wie eine Schnapsbrennerei für verschärftes Wissen. Aus Infotrauben, die von verschiedenen Orten und Pflückern zusammengetragen werden, entsteht im Laufe der Zeit ein immer weiter konzentriertes, immer klareres und verfeinertes Destillat. Anders als in Blogs oder Online-Foren, wo Themen einem chronologischen Verlauf folgen, verdichtet sich der Stoff in einem Wiki zunehmend. Aus Daten und Informationen wird Wissen. … Wer zum Wikitum konvertiert, glaubt daran, dass die Welt edierbar ist.«4

59. Im kulturalistischen Jargon redet man nicht von Konvergenz, sondern von kollaborativer Wissenskonstruktion in Netzwerken oder im Wiki.5

60. Es bahnen sich technische Verfahren für die Zusammenführung konsonanter Literatur an.6 Die Diskussion wird unter dem Stichwort »Digital Humanities« geführt.7

61. Für Juristen gibt es Suchmaschinen die nach Präzedenzfällen suchen. Mit Suchmaschinen, die eigentlich dazu entwickelt wurden, um Plagiate zu entdecken, findet man auch inhaltliche Duplizität.8

62. Wissenschaftliche Texte beginnen oft mit einem Referat über die Geschichte des behandelten Problems und über bisherige Lösungsvorschläge. Oft folgt dann ein Teil, in dem die vom Autor zugrunde gelegte Methode dargestellt wird. Der historische und der methodische Vorspann sind wegen der Konvergenz der Inhalte besonders anfällig für Plagiate. Bei der Vorstellung seiner Plagiatssoftware schreibt Harold Garner:
»Als probates Gegenmittel bietet sich die Textanalyse an. Sie vermag nicht nur die Unsitte des Plagiierens abzuschaffen, sondern könnte auch völlig neue wissenschaftliche Kommunikationsformen unterstützen.
Eine faszinierende Idee hierzu ist vom Modell des Onlinelexikons Wikipedia inspiriert: Man schafft eine dynamische, elektronische Sammlung von Veröffentlichungen zu einem Thema, die von Wissenschaftlern kontinuierlich redigiert und verbessert wird. Jede neue ›Publikation‹ besteht aus einem Beitrag zu einem einheitlich wachsenden Wissensschatz; redundante Methodenabschnitte werden überflüssig. Das Wikipedia-Modell wäre ein Schritt zu einer zentralen Datenbank, die alle wissenschaftlichen Publikationen in sämtlichen Disziplinen umfasst. Autoren und Redakteure würden mittels Textanalyse die Originalität einer neuen Forschungsarbeit bestätigen …. «

63. Eine individuelle Strategie zur Bewältigung der Textredundanz ist die »offene Patchworkmethode«. Sie besteht darin, Schlüsselstellen des eigenen Textes aus offen ausgewiesenen Zitaten zu bauen. Sie findet ihre Grenzen im Urheberrecht, das den Umfang zulässiger Zitate begrenzt. Die Umfangsbegrenzung gilt jedoch nur für die Entnahme aus einem Text. Es gibt keine Beschränkung für die Anzahl von (Kurz-)Zitaten aus verschiedenen Texten. Daher lässt sich ein neuer Text vollständig aus Fremdzitaten herstellen. Der Extremfall wäre ein Hypertext-Essay nach dem Xanadu-Konzept, der nur aus einer Zusammenstellung von Links bestünde. Zur Charakterisierung juristischer Dissertationen hieß es früher gelegentlich, da werde aus 100 (oder 1000) Quellen ein neuer Text gebastelt.

64. »Distant Reading«: Die Literaturwissenschaft beklagt die Masse der Texte, die niemand mehr lesen kann. Als Ausweg hat Franco Moretti9 (Stanford Literary Lab) eine Methode des Distant Reading vorgeschlagen. Sie besteht im Prinzip darin, Texte nicht zu lesen, sondern sie mit computergestützten Verfahren sozusagen zu vermessen.10 Die Vermessung gilt sowohl eher äußerlichen Eigenschaften (Literaturgenre, Stil usw.) als auch den Inhalten (etwa Plots in Romanen oder Argumentationen in Gerichtsurteilen).11

65. Search Term Reading: Meine Methode des Distanzlesens – die ich vermutlich mit vielen Wissenschaftlern teile – ist das Stichwortlesen (search term reading). Sie besteht schlicht darin, viele Texte nicht Satz für Satz von Anfang bis zum Ende zu lesen, sondern sie auf gerade interessierende Stichworte zu scannen. Früher hatte man dazu mehr oder weniger gute Stichwortregister. Heute liest man viele Texte auf dem Bildschirm. Alle Browser verfügen über eine Suchfunktion. Die meisten Texte werden wohl als PDF gelesen, und selbstverständlich hat auch die dafür übliche Software eine Suchfunktion. Als Bild eingescannte Texte werden dazu in durchsuchbare umgewandelt.


  1. Zygmunt Baumann kokettiert wohl, wenn er <a href="http://www.taz.de/1/archiv/?dig=2006/04/29/a0260">(in einem Interview</a>) sagt »Mein Leben besteht darin, Information zu recyceln.« Ich dagegen nehme diese Aussage für mich als bare Münze. 

  2. Z. B. bei bei Andreas Voßkuhle, Expertise und Verwaltung, in: Hans-Heinrich Trute (Hg.), Allgemeines Verwaltungsrecht, 2008, 637-663, S. 639 Fn. 11 zum Wissensmanagement. 

  3. Den Weg zur Kanonisierung bahnen viele Anthologien oder Zusammenfassungen nach Art der »Hauptwerke«-Reihe im Kröner Verlag. Bemerkenswert ist der Eifer, mit dem Austin Sarat sich als »advocate for disciplinization« für eine Kanonisierung des Faches einsetzt. Zwar spricht er nicht von legal sociology oder sociology of law, sondern von »law and society scholarship«. Aber der Sprachgebrauch in den USA ist eben anders. Schon als Präsident der Law and Society Association hatte Sarat sich für eine »Kanonisierung« des Faches ausgesprochen. Bemerkenswert auch, dass er dafür Juristen (Jack Balkin und Sanford Levinson) zitiert: »Every discipline, because it is a discipline, has a canon, a set of standard texts, approaches, problems, examples, or stories that its members repeatedly employ or invoke, and which help define the discipline as a discipline.«. Seither hat Sarat durch die Herausgabe von zahlreichen Readern und des »The Blackwell Companion to Law and Society« selbst erheblich zur Abgrenzung und Befestigung dieses Kanons beigetragen. 

  4. Peter Glaser, <a href="http://www.heise.de/tr/blog/artikel/Schnapsbrennerei-fuer-verschaerftes-Wissen-1512668.html">Schnapsbrennerei für verschärftes Wissen</a>, Heise-online, 06.04.2012. 

  5. Vgl. das Projekt »Kollaborative Wissenskonstruktion mit Wiki« am Leibniz Institut für Wissensmedien; und daraus Aileen Oeberst/Iassen Halatchliyski/Joachim Kimmerle/Ulrike Cress, Knowledge Construction in Wikipedia: A Systemic-Constructivist Analysis. Journal of the Learning Sciences, 23, 2014, 149-176. 

  6. Vgl. Kavita Ganesan/ChengXiang Zhai/Jiawei Han, <a href="pdf: http://sifaka.cs.uiuc.edu/czhai/pub/coling10-opinosis.pdf">Opinosis: A Graph Based Approach to Abstractive Summarization of Highly Redundant Opinions</a>, Proceedings of COLING 2010, 340-348. Nachzugehen wäre auch der Meldung, dass die Fakultät für Informatik und Mathematik der Universität Passau ein Forschungsprojekt CODE zur Extraktion und Visualisierung von Informationen aus wissenschaftlichen Publikationen und dem Web 2.0 gestartet hat [http://idw-online.de/de/news483053]. 

  7. Überblick über die Aktivitäten weltweit bei Poul Holm/Dominic Scott/Arne Jarrick, Humanities World Report 2015, Kap 4 »The Digital Humanities« [http://www.palgraveconnect.com/pc/oa/browse/inside/chapter/9781137500281.0007/9781137500281.0007.html?chapterDoi=9781137500281.0007&focus=pdf-viewer#page=0]. Für Deutschland vgl. die Pressemitteilung der Goethe-Universität Frankfurt a. M. Wie der Computer mit den »Digital Humanities« Einzug in die Geisteswissenschaften hält vom 16. 12. 2014 [http://idw-online.de/de/news618503]. Seit 2007 erscheint die E-Zeitschrift <a href="http://www.digitalhumanities.org/dhq/">Digital Humanities Quarterly</a>. 

  8. Harold »Skip« Garner, Computerjagd nach Plagiaten, Spektrum der Wissenschaft Dezember 2014, 60-63. 

  9. Franco Moretti, Kurven, Karten, Stammbäume, Abstrakte Modelle für die Literaturgeschichte, 2009; ders., Distant Reading 2013. Zu dem neueren Buch – einer Aufsatzsammlung – vgl. die ausführliche Rezension von Shawna Ross, In Praise of Overstating the Case:<a href="http://www.digitalhumanities.org/dhq/vol/8/1/000171/000171.html"> A Review of Franco Moretti, Distant Reading</a> (London: Verso, 2013, Digital Humanities Quarterly 8/1, 2013. 

  10. Kathryn Schulz, What Is Distant Reading? The New York Times – Sunday Book Review vom 24. 6. 2011[http://www.nytimes.com/2011/06/26/books/review/the-mechanic-muse-what-is-distant-reading.html?pagewanted=all&_r=0]. 

  11. Zu dem, was Moretti in Gang gebracht hat, vgl. auch den Tagungsbericht von Tobias Haberkorn, Es gibt einfach zu viele Texte, FAZ vom 12. 11. 2014 S. N3. 

Related Posts:

Tags: ,

Eine Konvergenztheorie des Wissens (2. Fortsetzung)

Gründe 34-51
Sekundäres und externalisiertes Wissen

34. Die Konvergenzthese bezieht sich nur auf externalisiertes Wissen, das heißt auf solches, das außerhalb des menschlichen Gedächtnisses gespeichert ist.

35. Nur ein kleiner Teil des individuellen Wissens stammt aus erster Hand. Der weitaus größere Teil des Wissens wird von anderen übernommen. Die Masse des Wissens zirkuliert als sekundäres Wissen.

36. Wissenschaftstheorie fragt immer nur danach, wie Wissen mit Wahrheitsanspruch gewonnen werden kann. Zwar verbindet sich mit diesem Anspruch derjenige auf Intersubjektivität. Die intersubjektive Übertragbarkeit von Wissen hängt aber nicht von einer theoretischen Lösung der Wahrheitsfrage ab, sondern ist ein soziales Phänomen.

37. Für die eigene Lebenswelt hat man vielleicht noch den Eindruck, man kenne sie aus eigener Erfahrung. Doch schon der Eindruck täuscht. Schon meinen eigenen Lebenslauf kenne ich zum Teil nur aus Berichten von Eltern und Verwandten. Das Weltwissen dagegen stammt mehr oder weniger vollständig aus sekundären, tertiären oder noch weiter entfernten Quellen. Man lernt es mehr oder weniger planmäßig in Familie und Schule, aus Büchern und anderen Medien oder beiläufig im Umgang mit anderen Menschen. Die Qualität dieses Wissens wird in der Regel gar nicht hinterfragt. Sie ergibt sich unmittelbar aus der sozialen Beziehung zur Wissensquelle.

38. Auch Wissen, das als wissenschaftlich ausgezeichnet ist, ist ganz überwiegend Wissen aus zweiter Hand. Die Wissenschaftlichkeit einer Proposition folgt, ganz gleich welcher Wissenschaftstheorie man folgt, aus der Prozedur seiner Herstellung. Nur wer selbst an dieser Prozedur beteiligt ist, verfügt über Wissen erster Hand. Aber das sind verschwindend wenige. Deshalb kursiert auch wissenschaftlich erzeugtes Wissen grundsätzlich als Wissen aus zweiter Hand. Ein prominentes Beispiel bietet das Milgram-Experiment. Versuchsanordnung und Ergebnisse werden durchgehend zustimmend referiert und gelten beinahe schon als Allgemeinwissen.

39. Für die Qualifizierung von Wissen aus zweiter Hand hat die Wissenschaftstheorie wenig zu bieten. Zu denken ist immerhin an die Methoden zur Erstellung von Metastudien. Alle zusammenfassenden Referate, Übersichtsartikel, Lehrbücher usw. sind der Sache nach (qualitative) Metastudien, die selten oder nie ihre Methodik reflektieren.1 Häufiger sind methodische Überlegungen zu quantitativen Metanalysen.

40. Für die Qualifizierung von Wissen aus zweiter Hand lässt sich auch an die Diskussion über die Qualifizierung so genannten Testimonialwissens anknüpfen, die von Oliver R. Scholz in Gang gebracht worden ist.2 Das Konzept einer sozialen Erkenntnistheorie (Social Epistemology)3 betont die soziale Konstituierung und Vernetzung von Wissensbeständen.

41. Subjektive Wissensarbeit hat Konvergenz- und Divergenzeffekte. Auch die (objektive) Zirkulation von Wissen jenseits subjektiver Wissensarbeit bringt Effekte in beiden Richtungen. Die Konvergenzthese besagt natürlich, dass die Konvergenzeffekte überwiegen. Sie macht für die Konvergenzeffekte aber in erster Linie objektive Umstände (Eigenschaften des Wissens, Speichertechniken, Wiedergewinnungsmethoden u. a. mehr) verantwortlich. Daher die Überschrift: das Internet als Konvergenzmaschine.

42. Subjektive Wissensarbeit ist überfordert, wenn es darum geht, den Stand (wissenschaftlicher) Literatur auch nur zu einer einzelnen Proposition repräsentativ zu verarbeiten. Ein wissenschaftlicher Aufsatz zitiert heute im Schnitt vielleicht 20 bis 30 Quellen (und macht daraus 100 Fußnoten). Tatsächlich werden die meisten Themen aber bereits in hunderten oder tausenden von Texten behandelt. Die Nachweise in wissenschaftlichen Abhandlungen sind durchweg nicht annähernd repräsentativ. Niemand kann alles lesen, was etwa zur Abschreckung durch schärfere Sanktionen oder zur Beeinflussung richterlicher Entscheidungen durch die soziale Herkunft, zur Stufenbaulehre Merkls oder zur Drittwirkung der Grundrechte geschrieben worden ist. Das überfordert die menschliche Kapazität und das scheitert konkret auch oft an Disziplingrenzen, an der Verfügbarkeit der Texte und an Sprachproblemen. Ich vermute, dass deshalb sich abzeichnende Konvergenz vielfach verdeckt bleibt. Hinzu kommt – weiterhin vermutlich – eine Tendenz aller Schreiber, Divergenzen zu betonen, sei es weil Konsonanzen langweilig sind, sei es weil sie glauben, sich dadurch besser profilieren zu können.

43. Die Wissenschaftstheorie der Postmoderne scheint der Konvergenzthese wenige Chancen zu geben. Sie sieht sich außerstande, eine konsistente und einvernehmliche Position zu entwickeln, von der aus Wissenselemente als falsch ausgesondert werden können. Sie vertritt vielmehr einen Multiperspektivismus, der statt einer Wahrheit viel Wahres akzeptiert oder gar hervorbringt. Vielleicht ist aber gerade der bewusste Perspektivenwechsel ein Instrument zur Feststellung von Wissenskonvergenz. Was aus unterschiedlichen Perspektiven gleich bleibt, zeigt »aperspektivische Objektivität«.

44. In das Weltwissen ist vieles eingegangen, was einmal Thema wissenschaftlicher Forschung und nicht selten auch umstritten war. Nur ein kleiner Teil des Weltwissens ist explizit als epistemisch verlässlich, das heißt als wissenschaftlich begründet, ausgezeichnet. Doch längst gibt es einen großen Wissensbestand, dessen Herkunft aus der Wissenschaft gar nicht mehr wahrgenommen wird. In solchem Allgemeinwissen hat sich die Konvergenz des Wissens bereits realisiert.

45. Wie Sekundärwissen sich verfestigt, kann man bei der individuellen Informationssuche beobachten. Die Suchmaschine ersetzt oder verdrängt das zweifelnde Fragen und das Ringen um eine eigene Antwort. Wenn immer eine Frage auftaucht, wird nach Lösungen gegugelt. Eine davon muss es sein. Die richtige Antwort schält sich heraus, wenn man die ersten zehn oder vielleicht auch 20 Suchergebnisse auf Plausibilität und Übereinstimmung durchsieht.

46. Suchregeln, Gewichtungsregeln und Stoppregeln werden kaum explizit ausformuliert Aber sie sind implizit doch vorhanden. Drei Filter ergänzen sich, indem sie Quantität, Qualität und Kohärenz der Quellen zusammenfügen.

47. Quantität: In aller Regel gibt man sich mit der ersten Auskunft nicht zufrieden, sondern sucht nach mehreren übereinstimmenden Ergebnissen. Wie viele müssen es sein? Das hängt natürlich auch davon ab, ob es widersprechende Ergebnisse gibt. Juristen sind mit der Vorstellung von herrschender Meinung und Mindermeinung vertraut.

48. Wissenschaftliches Wissen, das aus dem Internet reproduziert wird, hat den Charakter von Lehrmeinungen.

49. »The idea that truth can best be revealed through quantitative models dates back to the development of statistics (and boasts a less-than-benign legacy). And the idea that data is gold waiting to be mined; that all entities (including people) are best understood as nodes in a network; that things are at their clearest when they are least particular, most interchangeable, most aggregated — well, perhaps that is not the theology of the average lit department (yet). But it is surely the theology of the 21st century.«4

50. Für die Qualität der Quelle gibt es unterschiedliche Anhaltspunkte. Der erste ist Autorität der Autorenschaft. Der zweite ist das Erscheinungsbild der Quelle: Elaboration, Design usw. Wichtig ist schließlich, ob sich Ergebnisse und Begründungen plausibel zusammenfügen. Man könnte von inferentiellem Wissen sprechen.

51. Elaboration verdient besondere Aufmerksamkeit. Psychologen verstehen darunter eine vertiefte Informationsverarbeitung des Individuums durch die Einbettung neuer Information in das Netzwerk des Vorwissens. Hier ist dagegen die Elaboration der Darbietung von Wissen gemeint. Sie beginnt bei einem elaborierten Sprachstil, der sich als »wissenschaflich« zu erkennen gibt. Vor allem aber besteht sie, analog zu der individuellen Elaboration von Wissen, in der Einfügung singulärer Propositionen in einen größeren Zusammenhang. So geschieht es immer wieder in Dissertationen und Habilitationsschriften, dass eine an sich begrenzte These in eine umfangreiche historische Darstellung eingebettet wird, die möglichst alles referiert, was zum Thema gesagt wurde, mag es auch noch so obsolet sein. Kunstgerechte Elaboration »wirkt«, weil der Rezipient den – meistens durchaus zutreffenden – Eindruck gewinnt, hier sei großer Aufwand getrieben worden, um ein Ergebnis zu finden. Der Aufwand dient bis zu einem gewissen Grade als Ersatz für Gründe.


  1. Everett M. Rogers, der Klassiker der Diffusionstheorie (Diffusion of Innovations, 5. Aufl., New York, NY 2003), von dem in diesem Blog schon mehrfach die Rede war, berief sich in der ersten Auflage von 1962 auf 506 empirische Untersuchungen. Bis zur fünften Auflage von 2003 hatte sich die Zahl der in Bezug genommenen Untersuchungen auf 5200 reichlich verzehnfacht. De facto handelt es sich hier um eine Metastudie, ohne dass Rogers sich dazu besondere methodische Gedanken gemacht hätte. Greenhalgh u. a. , die ab 2001 im Auftrag des UK Department of Health der Diffusion und Nachhaltigkeit von Innovationen im Gesundheitswesen nachgingen, haben einen Literaturbericht erstellt, der sich auf 1024 Quellen stützt. Die wesentlichen Ergebnisse wurden zunächst 2004 in einem Aufsatz zusammengefasst (Trisha Greenhalgh/Glenn Robert/Fraser Macfarlane/Paul Bate/Olympia Kyriakidou, Diffusion of Innovations in Service Organisations: Systematic Literature Review and Recommendations for Future Research, Milbank Quarterly 82, 2004, 581-629), der vollständige Bericht ist 2005 unter dem gleichen Titel als Buch erschienen. Anders als Rogers haben Greenhalgh u. a. sich mit den methodischen Herausforderungen einer solchen Kompilation befasst (Storylines of Research in Diffusion of Innovation: A Meta-Narrative Approach to Systematic Review, Social Science & Medicine 61, 2005, 417-430.)  

  2. Oliver R. Scholz, Das Zeugnis anderer. Prolegomena zu einer sozialen Erkenntnistheorie, in: Thomas Grundmann (Hg.), Erkenntnistheorie, Positionen zwischen Tradition und Gegenwart, 2001, 354-375 sowie Bibliographie ebd. S. 391-394; ders., Das Zeugnis der Sinne und das Zeugnis anderer, in: Richard Schantz (Hg.), Wahrnehmung und Wirklichkeit, 2009, 183-209; ders., Das Zeugnis anderer – Sozialer Akt und Erkenntnisquelle, in: Sybille Schmidt/Sybille Krämer/Ramon Voges (Hg.), Politik der Zeugenschaft. Kritik einer Wissenspraxis, 2011, 23-45; Nicola Mößner, Wissen aus dem Zeugnis anderer, 2010. 

  3. Zur Orientierung vgl. den Artikel <a href="http://plato.stanford.edu/entries/epistemology-social/">»Social Epistemology«</a> von Alvin Goldman in der Stanford Encyclopedia of Philosophy, 2006. Seit 1987 erscheint eine Zeitschrift »Social Epistemology«, deren Texte überwiegend neben meinem Thema liegen. 

  4. <a href="http://www.nytimes.com/2011/06/26/books/review/the-mechanic-muse-what-is-distant-reading.html?pagewanted=all&_r=0">Kathryn Schulz, What Is Distant Reading?</a>, The New York Times – Sunday Book Review vom 24. 6. 2011. 

Related Posts:

Tags: ,

Eine Konvergenztheorie des Wissens (1. Forsetzung)

Gründe 18-33:
»Literaturflut – Informationslawine – Wissensexplosion«.1

18. Hinter diesen Stichworten steckt nicht unbedingt ein Gegenargument zur Konvergenzthese. Sie verweisen jedoch auf wichtige Zusammenhänge, nämlich erstens auf die These von dem unbegrenzten und unbegrenzbaren Wachstum des Wissens, zweitens auf die Möglichkeiten und Probleme einer Quantifizierung des Wissens und drittens auf Versuche, das anscheinend unbremsbare Wachstum des Wissens zu relativieren.

19. Die These vom unbegrenzten und unbegrenzbaren Wachstum des Wissens schließt an die These vom Unwissen als Kehrseite des Wissens. Letztere stammt angeblich schon von Goethe, der gesagt haben soll »Mit dem Wissen wächst der Zweifel.« Sie ist selbst ein Beispiel für die Konvergenz des Wissens. Die kürzeste Formulierung lautet wohl »Wissen produziert Unwissen.« Etwas ausführlicher: »Je mehr man weiß, desto mehr wächst der bewußte Bereich des Ungewußten.«2 Die These taucht an vielen Stellen auf, ohne dass man auf dieselbe Quelle Bezug nimmt.3

20. Die These vom unbegrenzbaren Wachstum des Wissens wird oft mit Hilfe der Metapher von der Wissenskugel ausgedrückt. »Die Kugel des Gewussten liege im Meer des Ungewussten. Damit ist klar, je mehr wir wissen, desto größer ist der Kontakt der Kugeloberfläche zum Ungewussten.«4 Die Proposition, die dahinter steckt, die Aussage nämlich, dass mit der Zunahme des Wissens der Bereich des Unwissens wächst, ist selbst ein Beispiel für die Konvergenz des Wissens, taucht dieser Gedanke doch an verschiedenen Stellen immer wieder auf. Werner Marx nennt als Erfinder der Wissenskugel ohne Nachweis Hubert Markl, als Fortsetzer Jürgen Mittelstraß und verweist dazu auf einen Radiovortrag von 19925. Matthias Groß6 verweist auf einen Aufsatz von Mittelstraß von 19967. Und Mittelstraß nennt sich selbst als Quelle.8 Der Gedanke ist freilich älter. Ich meinerseits habe bereits 19749 festgehalten: »Sowie sich der Kreis des Bekannten vergrößert, wird die Peripherie, an der er sich mit dem Unbekannten berührt, immer länger.«, als Quelle von Hayek10 angegeben und außerdem in der Fußnote Popper11 zitiert: »The more we learn about the world, and the deeper our learning, the more conscious, specific, and articulate will be our knowledge of what we do not know, our knowledge of ignorance. For this, indeed, is the main source of our ignorance – the fact that our knowledge can only be finite, while our ignorance must necessarily be infinite.« Der Wissenskugel entspricht eine Verstehenskugel: »Jeder Zuwachs an Verstehen ist zugleich ein Zuwachs an Verstehen des Nichtverstehens und damit eine kontinuierliche Unterminierung des Verstehens. Auch die durch das hermeneutische Verfahren zu behebende Ungewißheit ist damit ›Ungewißheit ohne Ende‹, die durch Zunahme von Wissen nie endgültig aufzuheben ist.«12 Bei Teubner lesen wir: »In der Wissenschaft erzeugt die Forschung immer höhere Ungewissheiten, die nur durch verstärkte Forschung wieder beseitigt werden können, die wiederum neue Ungewissheiten erzeugen.«13

21. Die Quantifizierung des Wissens fordert eigentlich eine Wissensdefinition und deren Operationalisierung. Hier liegt ein bisher nicht befriedigend gelöstes Problem. Daher wird die quantitative Zunahme des Wissens indirekt gemessen, vor allem durch Zählung von Menschen mit wissenschaftlicher Ausbildung als Wissensproduzenten und von Publikationen als Wissensträger. Konvergenzen lassen sich mit solchen Zählungen nicht erkennen.

22. Die Versuche, die anscheinend unbremsbare Zunahme des Wissens zu relativieren, beginnen bei der Definition des Wissens, und zwar durch die Ausscheidung von Daten und Informationen. Ein weiterer Schritt ist die Qualifizierung des Wissens. Dazu dienen etwa die Messung von Zitierhäufigkeiten und die Ermittlung Veraltungszyklen. Beides könnte, aber muss nicht auf Konvergenz hindeuten. Die Konvergenzthese lässt sich ihrerseits als Versuch der Relativierung der Wissensexplosion verstehen, wiewohl das nicht ihre eigentliche Zielrichtung ist.

23. Die These hinter der Wissenskugel geht stillschweigend davon aus, dass das vorhandene Wissen irgendwie konsolidiert ist und vor allem auch gewusst wird. Die These von der Konvergenz des Wissens interessiert sich kaum für das Unwissen außerhalb der Kugel, sondern sie befasst sich mit der Konsolidierung des Kugelinhalts. Die Konsolidierung (vorhandenen) Wissens setzt voraus, dass das Wissen überhaupt zur Kenntnis genommen wird. Die unzulängliche Konsolidierung von Wissen hat ihre Ursache vielfach nicht in Unwissen, sondern in Unkenntnis des Wissens (ignorance).14

24. Die Konvergenz von Wissen lässt sich nur durch Zweitbeobachtung feststellen. Bei der Zweitbeobachtung wird Wissen zu sekundärem Wissen. Oder im kulturalistischen Code: Es geht um Repräsentationen.

25. Wissen ist oft komplex und speziell. Es kann und muss für unterschiedliche Zielgruppen verständlich dargestellt werden. Die Konvergenz verträgt sich mit einer vielfältigen sprachlichen und visuellen Aufbereitung des Wissens.

26. Die Möglichkeiten sprachlicher Variation sind enorm. Originalität wird leicht durch die unterschiedliche sprachliche Darstellung von Wissen vorgetäuscht. Mehr oder weniger alle Aussagen sind mehrfach zu finden. Das bringen die bekannten Redensarten zum Ausdruck: Neuer Wein in alten Schläuchen. – Das Rad wird neu erfunden. – Nichts Neues unter der Sonne. Wer älter ist wie der Verfasser dieses Textes, muss sich vor solchen Redensarten hüten. Fraglos gibt es immer wieder Neues. Aber angesichts der wissenschaftlichen Massenproduktion bleibt es doch erlaubt, auf die Vielzahl der auf den ersten Blick unsichtbaren Übereinstimmungen und die sich darin zeigende Konvergenz des Wissens hinzuweisen.

27. Da Wissen immer durch Zeichen repräsentiert werden muss, ist wegen der Interpretationsfähigkeit insbesondere von Sprachzeichen mit dem Einwand zu rechnen, dass eine eindeutige Feststellung von Konvergenz nicht immer möglich ist. Doch Wissen, dass nicht intersubjektiv transferierbar ist, ist kein wissenschaftliches, sondern bleibt Literatur, Kultur oder Unterhaltung. Wissenschaft gründet auf der Unterstellung, dass das Problem der Interpretationsvarianz für ihren Bereich lösbar ist. Intersubjektive Transmissibilität heißt allerdings nicht Transmissibilität der Akzeptanz einer Proposition, sondern lediglich Möglichkeit des gleichsinnigen Verständnisses.

28. Die Konvergenz des Wissens geht regelmäßig mit einer Trivialisierung einher. Das Wissen der Welt ist in Sprache (und teilweise in Formeln, Bildern und Grafik, die hier vernachlässigt werden) gespeichert. Die Konvergenz zeigt sich erst, wenn ein Wissenselement referiert wird oder referierbar ist. Jedes Referat ist eine »Übersetzung«. Nach der Theorie der kulturellen Übersetzung hat jede Übernahme von Wissen eine Veränderung zur Folge. Prinzipiell ist das wohl richtig. Aber da wird tüchtig übertrieben. Mit der Feststellung von Konvergenz geht allerdings Redundanz verloren, und mit der Redundanz Konnotationen.

29. Ein wichtiger Schritt zur Konvergenz des Wissens ist die Konvergenz von Definitionen. Da jeder frei ist, seinen Gegenstand zu definieren, redet man oft dasselbe aneinander vorbei. Diese Freiheit ist kann und will niemand einschränken. Aber sie lässt sich disziplinieren, indem man sich bemüht, bei einer vorhandenen Definition anknüpfen, die sich anscheinend bewährt hat, um dann – wenn erforderlich – seine Kritik und Abweichungen anzuschließen.

30. In diesem Sinne übernehme ich für die (vorläufige) Festlegung auf einen Wissensbegriff die Definition von Marc Porat15, und zwar auf dem Umweg über Daniel Bell16, weil ich aus ihrer Verwendung durch Bell schließe, dass die Definition mindestens brauchbar ist. Danach bildet Wissen eine »Sammlung in sich geordneter Aussagen über Fakten und Ideen, die ein vernünftiges Urteil oder ein experimentelles Ergebnis zum Ausdruck bringen und anderen durch irgendein Kommunikationsmedium in systematischer Form übermittelt werden.« Grundlage des Wissens bilden Informationen. »Informationen sind Daten, die organisiert und kommuniziert worden sind.«

31. Diese Definition steht im Gegensatz zu dem imperialistischen Wissensbegriff der Kulturwissenschaften, der alle bewussten und unbewussten psychischen Zustände einschließt.

32. Ähnlich relevant wie Definitionen sind wissenschaftliche Fragen. Die Konvergenz von Propositionen setzt eine einheitliche Fragestellung voraus.

33. Statik und Dynamik – Beschreibungen und Erklärungen: Wisenskonvergenz bedeutet kein Ende des sozialen Wandels. Es konvergieren in erster Linie die Erklärungen. Beschreibungen können nur solange konvergieren, wie der beschriebene Zustand bleibt.
(Nr. 20 wurde am 13. 12. ergänzt. Fortsetzung folgt.)


  1. Werner Marx, Literaturflut – Informationslawine – Wissensexplosion. Wächst der Wissenschaft das Wissen über den Kopf?, Forschung 4, 2011, 96-104 (zitiert wird vielfach noch eine ältere Internetversion aus dem Jahr 2002 des Artikels von Werner Marx und Gerhard Gramm.)  

  2. Beide Formulierungen aus Christoph Engel/Jost Halfmann/Martin Schulte, Wissen – Nichtwissen – unsicheres Wissen, 2002, Vorwort S. 9. Diesen nicht überprüften Nachweis habe ich (ohne die Fundstelle zu notieren) von Schmidt-Assmann übernommen. 

  3. Z. B. bei Martin Schulte, Eine soziologische Theorie des Rechts, S. 130: »Keine Generierung von Wissen ohne gleichzeitige Generierung von Nichtwissen!« Schulte verweist auf zwei Titel von Klaus Peter Japp, darunter: Die Beobachtung von Nichtwissen, Soziale Systeme 3, 1997, 289-312. Andreas Voßkuhle spricht von dem »externen Bereich des Unerforschten« als etwas durch »wissenschaftliches Wissen selbst Konstituiertes« und nennt als Quelle einen Text von Peter Wehling (in: Hans-Heinrich Trute u. a., Allg. Verwaltungsrechts, 2008, S. 653). Peter Wehling ist überhaupt eine gute Quelle für die These vom Unwissen als Kehrseite des Wissens, z. B.: Die Schattenseite der Verwissenschaftlichung. Wissenschaftliches Nichtwissen in der Wissensgesellschaft., in: Stefan Böschen/Ingo Schulz-Schaeffer (Hg.), Wissenschaft in der Wissensgesellschaft, 2003, 119-142, oder ders., Artikel »Wissen und Nichtwissen« in: Rainer Schützeichel, Hg., Handbuch Wissenssoziolgie, 2007, 485-494). 

  4. Rainer Schröder/Angela Klopsch, Der juristische Doktortitel, Humboldt Forum Recht 2012, S. 33, ohne Nachweis. 

  5. Von Marx 2011 bei Fn. 4. 

  6. Die Wissensgesellschaft und das Geheimnis um das Nichtwissen, in: Cécile Rol/Christian Papilloud, Soziologie als Möglichkeit, 2009, S. 105. 

  7. Nichtwissen: Preis des Wissens? In: Schweizerische Technische Zeitschrift 93, 1996, 32-35. 

  8. In dem Internet-Manuskript »Gibt es Grenzen des Wissens?«, 2008. 

  9. Das Dilemma der Rechtstatsachenforschung, S. 39. 

  10. Friedrich A. von Hayek, Rechtsordnung und Handelsordnung, in: Zur Einheit der Rechts- und Staatswissenschaften, Karlsruhe 1967, S. 195 ff., 205. 

  11. Karl R. Popper, On the Sources of Knowledge and of Ignorance, in: Conjectures and Refutations, London 1963, S. 28. 

  12. Zitat aus Ino Augsberg, Die Lesbarkeit des Rechts, 2009, S. 187, er wiedrum auf Luhmann, Die Religion der Gesellschaft, 2000, S. 47 verweist. 

  13. Verfassungsfragmente, 2012, S. 129, ohne Nachweis. 

  14. Andrew Abbott, Varieties of Ignorance, The American Sociologist 41, 2010, 174-189. 

  15. The Information Economy. Definition and Measurement, Washington D.C. 1977, S. 2. 

  16. Die nachindustrielle Gesellschaft, 1975, S. 180. 

Related Posts:

Tags: , ,

Eine Konvergenztheorie des Wissens

Mir fällt immer stärker auf, dass in vielen Büchern zur Rechtsphilosophie, Rechtstheorie, Methodenlehre und Rechts­soziologie mehr oder weniger dasselbe zu lesen ist. Oft wird Konvergenz nicht wahrgenommen, weil die Autoren unterschiedlichen wissenschaftlichen Schulen, Zitierkartellen usw. angehören, so dass sie gar nicht merken oder merken wollen, wieweit sie in der Sache übereinstimmen. Noch häufiger wird die Konvergenz hinter immer neuen Formulierungen versteckt, sei es, um das Selbstbild des originalen Wissenschaftlers zu wahren, sei es um den Eindruck eines Plagiats zu vermeiden. Für Lehrbücher und Kommentare zum geltenden Recht gilt das erst recht.

Mir fällt weiter auf, wenn ich Texte aus verschiedenen Disziplinen lese, dass sie auf den ersten Blick zwar nichts miteinander zu tun haben, bei näherer Hinsicht jedoch erstaunliche Parallelen aufweisen. Das ist mir zuletzt bei ethnologischen Texten aufge­fallen, die der Sache nach der Diffusion von bestimmten gesellschaftlichen Organisationsformen nachgehen, die sich aber strikt weigern, sich als Diffusionsforschung einzuordnen, und ihre Beobachtung statt dessen in Konzepte von travelling models und kultureller Übersetzung verpacken.

Schließlich fällt mir auf, dass das neue Ideal der Geistes- und Sozialwissenschaften in der erfolgreichen Suche nach Vielfalt zu bestehen scheint, während die Suche nach Konsonanzen oder Übereinstimmungen als langweilig oder gar als diskriminierend gilt. Der »Willkommensgruß des postmodernen Philosophen in Richtung der Vielfalt, des Fragmentierten, Polymorphen und Instabilen«1 war höchst erfolgreich.

Diese Beobachtungen sind Anlass, drei zunächst grobe Thesen zu formulieren:
– Das Wissen der Welt konvergiert.
– Es lohnt sich, der einst von Peirce formulierten Konvergenztheorie der Wahrheit nachzugehen.
– Das Internet erweist sich als Konvergenzmaschine für das Wissen der Welt.

Die Publikationsform des Blogs bietet Möglichkeit und Versuchung zugleich, unfertige Gedanken vorzuzeigen. Die folgende Begründung ist ebenso grob wie die Thesen. Jeder Absatz könnte und müsste breit ausgearbeitet werden, und vermutlich gibt es zu den darin angesprochenen Fragen schon viele Überlegungen, die – unter anderem mit der Konvergenzmaschine Internet – zu einer Antwort zusammengefügt werden können. Sicher gibt es viele Gegengründe, die ich aber ausblende, um mich zunächst meiner These zu versichern. Auch so ist dieser Notizzettel schon so lang geworden, dass ich ihn auf mehrere Einträge verteile. Ich nummeriere die Notizen durch, weil mir bisher eine systematische Gliederung fehlt.

782 Gründe
Teil I: Empirische und epistemische Konvergenztheorien

1. Es geht um Wissen, dass als wissenschaftlich gilt. Für die MINT-Fächer wäre die Konvergenzthese vielleicht kaum der Rede wert, wiewohl auch diese von wissenschaftstheoretischen Skrupeln geplagt werden.3 Mir geht es um die Geistes- und Sozialwissenschaften.

2. Konvergenztheorien treten entweder als empirische oder als epistemische auf. Empirische Konvergenztheorien behaupten die Konvergenz sozialer Entwicklungen, welcher Art auch immer. Prominent war etwa die Konvergenzthese als Element der Modernisierungstheorie, die besagte, dass kapitalistische und sozialistische Gesellschaftsformen am Ende konvergieren würden. Auch die Modernisierungstheorie selbst ist in ihrer klassischen Version eine Konvergenztheorie. Rechtsvergleicher diskutieren die Konvergenz des Rechts auf Weltebene oder jedenfalls auf Europaebene, auch das primär unter empirischen Aspekten.

3. Demgegenüber stehen epistemische Konvergenztheorien, das heißt solche, die in irgendeiner Weise die Wahrheitsfrage behandeln. Allen modernen Wahrheitstheorien ist die Ablehnung des von ihnen so genannten Fundamentalismus gemeinsam. Gemeint ist damit die Vorstellung, dass wissenschaftliche Erkenntnis auf einem festen Fundament aufbauen könne und müsse, sei es auf dem empirischen Sinnkriterium, sei es auf Vernunft oder auf einer Kombination von beidem. Konsenstheorien der Wahrheit sind jedenfalls insoweit noch fundamentalistisch, als sie darauf abstellen, dass nicht jeder Konsens, sondern nur ein solcher, der durch einen vernünftigen Diskurs gewonnen wird, als Wahrheitsersatz gelten kann.

4. Konvergenztheorien der Wahrheit sind in der Regel Kohärenztheorien. Das heißt, sie stellen darauf ab, dass Sätze nicht isoliert betrachtet werden dürfen, sondern dass menschliches Wissen »holistisch« als Netzwerk zu verstehen sei. Es gewinnt seine Qualität aus der stimmigen Einbettung in einen größeren Zusammenhang. Moderne Konvergenztheorien tragen daher die Sammelbezeichnung »semantischer Holismus«. Analog zur diskursorientierten Konsenstheorie der Wahrheit gibt es auch eine realistisch orientierte Konvergenztheorie der Wahrheit. Sie stammt von Peirce und besagt etwa, dass in einer unendlich entfernten Zukunft Realität und Gedanken über die Realität konvergieren werden. Bis dahin sei alle Erkenntnis fallibel: »Wahrheit ist die Übereinstimmung einer abstrakten Feststellung mit dem idealen Grenzwert, an den unbegrenzte Forschung die wissenschaftliche Überzeugung anzunähern die Tendenz haben würde.«4 »In the long run«, so lautet die häufig wiederkehrende Formel in den »Collected Papers«. Mit dem Internet und seinen Suchmaschinen ist der weite Weg ein Stück kürzer geworden.

5. Ob die Wahrheitstheorie von Peirce ihrerseits als Korrespondenztheorie oder als Konsenstheorie einzuordnen ist, ist sekundär. Ältere Äußerungen sprechen für eine fundamentalistische Korrespondenztheorie, die eine Entsprechung der Erkenntnis zu einer unabhängigen Realität erwartet, die eben durch die vollständige Konvergenz der Realitätsbeschreibungen angezeigt wird. »Es gibt reale Dinge, deren Eigenschaften völlig unabhängig von unseren Meinungen über sie sind; dieses Reale wirkt auf unsere Sinne nach regelmäßigen Gesetzen ein, und obwohl unsere Sinnesempfindungen so verschieden sind wie unsere Beziehungen zu den Gegenständen, können wir doch, indem wir uns auf die Gesetze der Wahrnehmung stützen, durch schlußfolgerndes Denken mit Sicherheit feststellen, wie die Dinge wirklich und in Wahrheit sind; und jeder, wenn er hinreichende Erfahrung hat und genug darüber nachdenkt, wird zu der einzig wahren Konklusion gerührt werden«5

6. Wichtiger ist, dass der Wahrheitsbegriff von Peirce nicht nur epistemisch, sondern auch empirisch ist. Er ist epistemisch, weil er Bedingungen angibt, unter denen Sätze, als wahr ausgezeichnet werden können. Und er ist empirisch, weil er die Prognose wagt, dass tatsächlich einmal (»in the long run«) ein Konvergenzzustand erreicht sein könnte.

7. Solche Konvergenz betrifft nur einzelne wissenschaftliche Propositionen. Sie ist zwar hinsichtlich jeder singulären Proposition denkbar. Es ist aber nicht anzunehmen, dass irgendwann einmal alle wissenschaftlichen Sätze durch Konvergenz bestätigt werden – Oder?

8. Für die Auszeichnung als wissenschaftlich verwende ich den institutionellen (oder formellen) Wissenschaftsbegriff.6 Das heißt, Wissenschaft definiert sich selbst und ist darauf angewiesen, dass ihre Umgebung diese Definiition akzeptiert. Was immer in den traditionellen Institutionen der Wissenschaft (Universitäten, Forschungsinstitute usw.) produziert wird, wird wie selbstverständlich als wissenschaftlich angenommen. Vielleicht geht die Entwicklung dahin, dass auch durch Datenverarbeitung gewonnene Sätze als wissenschaftlich akzeptiert werden. Dann werden wir Google Scholar eines Tages als Kollegen begrüßen.

9. Es gibt nichtpropositionales Wissen, und das hat in der Praxis enorme Bedeutung.7 Die Konvergenzthese bezieht sich auf Propositionen über solches Wissen, aber nicht auf dieses Wissen selbst.

10. Die Konvergenz des Wissens, um die es hier geht, ist ein empirisches Phänomen. Es bietet eine gewisse Bestätigung für die epistemische Konvergenztheorie. Die Konvergenzthese besagt, dass die Wissensbestände dieser Welt konvergieren, und zwar nicht als Ergebnis diskursiver oder anderer intentionaler Prozesse, sondern kraft evolutionärer Entwicklung. Die Wahrheitsfrage ist nicht das Thema, wiewohl sie sich natürlich nicht verdrängen lässt. In einem sehr verkürzten Sinn wird sie zum bloßen Selektionskriterium der Evolution.

11. Auch Akkumulation wäre eine Form von Konvergenz. Die Idee der Wissensakkumulation ist allerdings spätestens seit Kuhn verpönt. Doch sie kriecht aus verschiedenen Ecken wieder hervor. Der »neue Realismus« könnte zu einer gewissen Rehabilitation führen. Ein skeptischer Realist ist wohl auch Bruno Latour. Latour spricht von objektiviertem Wissen, das durch Referenzketten entsteht.8

12. Konvergenzen von Politiken, technischen Verfahren, wirtschaftlichen und sozialen Strukturen (darunter auch das Recht) sind eine anscheinend augenfällige und viel diskutierte Folge der Globalisierung. Dabei geht es jedoch um Konvergenzen auf der Objektebene, während die Konvergenz des Wissens auf einer Metaebene zu suchen ist. Die Frage wäre also, ob die Aussagen über Konvergenz als Folge der Globalisierung ihrerseits konvergieren. Auch »globale Wissenswelten«9 sind zunächst ein Phänomen auf der Objektebene. Es ist immerhin vorstellbar, dass eine oder mehrere epistemic communities zur Plattform für die Konvergenz des Wissens werden.

13. Die Konvergenz des Wissens ist (als empirisches) ein kognitives Phänomen. Aus der Übereinstimmung des Wissens folgt nicht automatisch die Übereinstimmung des Verhaltens.

14. Deshalb gilt die Konvergenzthese zunächst nur für empirisches Wissen. Dazu zählen auch kognitive Vorstellungen über Sätze mit normativem Gehalt. Solche Sätze bilden einen wesentlichen Bestandteil der Jurisprudenz.

15. Aus der Kenntnis von Begriffskonstruktionen, Konzepten und Normen folgt nicht unmittelbar deren Billigung oder gar Übernahme. Analoges gilt für Wissen über Religion und Kultur.

16. Konvergenz des Wissens bedeutet deshalb nicht auch Konvergenz der Kulturen, sondern nur Konvergenz des Wissens über Kulturen. Allerdings ist das Wissen über Kulturen die Voraussetzung einer Diffusion. Aber über die Annahme von Wissen und Kultur wird nach unterschiedlichen Normen entschieden. Die Konvergenz von Wissen gilt prinzipiell als Anzeichen von Wahrheit und wird deshalb begrüßt. Vielfalt von Kulturen gilt dagegen als Wert und wird deshalb konserviert.

17. In der Rechtsphilosophie gibt es teilweise die Idee, dass »in the long run« auch normative Einstellungen konvergieren. Diese Idee ist nicht Teil der hier ausgebreiteten These.

(Fortsetzung folgt.)

Nachtrag
Die Serie von fünf Einträgen zur Konvergenz des Wissens habe ich zur Vorbereitung für eine Veröffentlichung überarbeitet. Zunächst habe ich darüber auf der Tagung »Die Versprechungen des Rechts – Dritter Kongress der deutschsprachigen Rechtssoziologie-Vereinigungen« in Berlin 2015 vorgetragen. Hier das ungekürzte Vortragsmanuskript.


  1. Umberto Eco, Gesten der Zurückweisung, in: Markus Gabriel (Hg.), Der neue Realismus, 2014, 33-51, S. 36. 

  2. Vielleicht werden es noch mehr, bis der letzte Eintrag zum Thema gemacht ist. 

  3. Ulrich Wengenroth, Zur Einführung: Die reflexive Modernisierung des Wissens, in: ders. (Hg.), Grenzen des Wissens, 2012, 7-22. 

  4. Charles S. Peirce, Schriften II, hgg. v Karl-Otto Apel, 1970, 459. 

  5. Charles S. Peirce, Die Festlegung einer Überzeugung (1877), in: Ekkehard Martens, Texte der Philosophie des Pragmatismus, 1975, S. 79. 

  6. Röhl/Röhl, Allg. Rechtslehre, 3. Aufl. 2008, 83. 

  7. Dazu https://www.rsozblog.de/implizites-wissen/. 

  8. Vgl. das Referat, das ich im <a href="https://blogs.urz.uni-halle.de/inco/2014/07/ref-2/">Ethnologenblog der Uni Halle</a> gefunden habe. Als Quelle wird das Hörspiel » Kosmokoloss. Eine Tragikomödie über das Klima und den Erdball« angegeben, dass wohl <a href="http://www.br.de/radio/bayern2/sendungen/hoerspiel-und-medienkunst/hoerspiel-klima-krise-anthropozaen-latour100.html">am 6. 12. 2013 in Radio Bayern 2</a> gelaufen ist. Ich habe mir nicht die Mühe gemacht, die Sendung von 65 Minuten anzuhören. 

  9. Vgl. dazu Nico Stehr, Globale Wissenswelten oder grenzenlose Erkenntnisse, Rechtstheorie 39, 2008, 301-327. 

Related Posts:

Tags: , ,

Ein starkes Stück Kulturwissenschaft: Cornelia Vismanns Tribunalisierungsthese II

Dieser Eintrag beendet die am 14. 11. begonnene und am 17. 11. sowie am 21. 11. im Blog »Recht anschaulich« fortgesetzte Besprechung des Buches »Medien der Rechtsprechung« von Cornelia Vismann.
Der Abschnitt mit der Überschrift »Courtroom-Drama« steht noch im Kapitel über das »Cine-Gericht«. Unter einem courtroom-drama versteht Vismann aber hier nicht, wie üblich, bloß fiktive Darstellungen von Gerichtsszenen, sondern Filme, die die Judenvernichtung thematisieren. Dazu rechnet sie auch die Filmdokumentationen, die im Nürnberger Kriegsverbrecherprozess zu Beweiszwecken vorgeführt wurden und die Filme, mit denen dieses und andere reale Gerichtsverfahren dokumentiert wurden. Die Parallelisierung von Fiktion, Dokumentation und auch Realität findet sich an vielen Stellen des Buches. Literarisch wird sie durch die Berufung auf die Theatergruppe Rimini gestützt.
In der Sache konzentriert sich der Abschnitt über das »Courtroom-Drama« auf die höchst aufwendigen technischen und personellen Vorkehrungen für das Simultan-Dolmetschen in Nürnberg. Er konstatiert zunächst, dass die Nürnberger Kriegsverbrecherprozesse in bis dahin unvorstellbarer Weise für akustische und visuelle Medien geöffnet wurden, um sich dann darauf zu zeigen, wie die seinerzeit neuartige Technik des Simultandolmetschens dem Verfahren ihren Stempel aufdrückte. Soweit das deskriptiv geschieht, liest es sich spannend. Mit der Interpretation kann ich aber wenig anfangen: »Damit hätte die Stimme einen eigentümlich raumlosen Raum gefunden, in dem der Nachhall der Stimme als das Nicht-Identische des Subjekts vernehmbar wird.« (S. 235) Am Ende S. 240 gibt es immerhin eine These: Die Technik des Simultandolmetschens gehört inzwischen bei internationalen Tribunalen selbstverständlich dazu, nicht aber bei Verfahren der normalen Gerichten mit Beteiligten, für die in mehrere Sprachen übersetzt werden muss. Vismann sieht darin einen Unterschied zwischen Tribunal und Gericht. Die normalen Gerichte duldeten keine simultanen Reden, weil sie um ihre »Prozesshegemonie« oder »Diskursmacht« fürchteten. (S. 240) Mir scheint wichtiger, dass das Gerichtsverfahren durch das Simultandolmetschen sozusagen zur Telefonkonferenz unter Anwesenden wird. Interessant wäre vor allem, was Psychologen dazu zu sagen haben. Ich weiß allerdings nicht, ob es dazu überhaupt aktuelle Untersuchungen gibt.
Der folgende Abschnitt über »Nürnberg«, immer noch im Kapitel »Cine-Gericht«, befasst sich damit, wie einerseits der (erste) Nürnberger Kriegsverbrecherprozess von vornherein als Medienereignis für die Weltöffentlichkeit und als Instrument für die Umerziehung der Deutschen organisiert wurde und wie andererseits innerhalb des Verfahrens die nicht zuletzt zu diesem Zweck gedrehten Filme über die Befreiung der Konzentrationslager als Beweismittel dienten. Der Chefankläger der Amerikaner, Justice Jackson, stützte die Anklage im Wesentlichen auf Dokumente, Fotos und eben auf Filme, die »für sich selbst sprechen sollten«. Die Absicht dahinter war einerseits, das Verfahren möglichst frei von Störungen durch die Emotionen der Opferzeugen zu halten (S. 246 f.). Es sollte aber wohl auch verhindert werden, »dass die Angeklagten das Tribunal als Plattform für nationalsozialistische Propaganda nutzen würden«.1 Der Gerichtssaal, so Vismann, wurde zum Kino umgebaut. Acht Filme, darunter ein Zusammenschnitt mit dem Titel »The Nazi Concentration Camp«, wurden quasi zu Hauptbelastungszeugen. Das Verfahren seinerseits wurde abgefilmt, und zwar bei der Vorführung der Beweisfilme mit Blick auf die Gesichter der Angeklagten. Vismann geht der Frage nach, ob die in Nürnberg gezeigten Filmbilder »einen emblematischen Charakter annehmen, und das heißt: einer von allen geteilten Interpretation zugänglich sind« (S. 253). Sie meint, dass die wiederum abgefilmte Szene der Vorführung der Filme das Potential zur Emblematisierung enthalte, und spricht von einer Authentifizierungslogik. Das ist, wie sie selbst nicht verkennt, wohl etwas zu stark. Aber interessant ist es doch, wie Vismann der Verwendung der Schreckensfilme in jüngeren Spiel- und Dokumentarfilmen – insbesondere Alan Resnais, »Nuit et brouillard« (Nacht und Nebel), 1955; Orson Welles, »The Stranger« (Die Spur des Fremden), 1946, und Stanley Kramer, »Judgment at Nuremberg«, 1961 – nachgeht. Der Eichmann-Prozess, wiewohl vollständig aufgezeichnet, hatte anscheinend zunächst im Kino kaum ein Echo, bis 1999 Eyal Sivans und Rony Braumans Material aus dem Eichmann-Prozess für ihren Film »Un spécialiste, portrait d’un criminel moderne« verwendeten. Der Film veranlasst Vismann zu dem Resümee: »Die Bilder, die nach Nürnberg zum Emblem oder doch zumindest zur Chiffre für den Holocaust geworden sind, haben sich abgenutzt.« (S. 270). Das erinnert an Susan Sontag, die 1977 in demselben Essay, in dem sie eindrucksvoll ihre persönliche Begegnung mit den Schreckensbildern aus den Konzentrationslagern schilderte, nicht weniger deutlich formulierte, was heute als Gemeinplatz der Medienkritik gilt. »In den letzten Jahrzehnten hat die ›anteilnehmende Fotografie‹ mindestens ebenso viel dazu getan, unser Gewissen abzutöten, wie dazu, es aufzurütteln.«2 Was mag es bedeuten, dass längst viele Filmteile aus dem Nürnberger Prozess und aus dem Eichmann-Verfahren neben Millionen von Trivialclips bei YouTube zu finden sind? Aber das war nicht Vismanns Thema. Ihr ging es in erster Linie darum zu zeigen, wie selbst im Gerichtsfilm die Szene zum Tribunal wird.
Das Abschnitt »Fernsehübertragungen aus dem Gerichtssaal« (S. 297-317) beginnt: »Die Geschichte des Fernsehens ist die Geschichte einer Aneignung von Gerichtsstoffen und –formaten.« Das ist arg übertrieben. Aber es gibt eine solche Geschichte. Vismann referiert andeutungsweise die juristische Diskussion, um dann den Widerstand der Juristen gegen Live-Übertragungen aus dem Gerichtssaal aus der eigentümlichen Performanzleistung der Justiz zu erklären. Was im Gericht geschehe, müsse als unwiederholbarer Vorgang erscheinen und dürfe deshalb erst nach einem Medienwechsel – als schriftlicher Prozessbericht oder als Gerichtszeichnung – nach außen dringen. (S. 311) Aber: Bedeutet nicht auch die Filmaufzeichnung einen Medienwechsel? Sind nicht auch schriftliche Prozessberichte und Gerichtszeichnungen wiederholt abrufbar?
Das gilt viel stärker noch für das Fernsehen als für den Film. »Fernsehen und Gericht sind vielmehr deswegen miteinander verwandt, weil sie nach denselben Regeln ablaufen. So wie in einem Dolmetschverfahren aus Worten Sätze werden, fügen sich die Fernsehsignale zu einem Bild, da sie ›wie in buchstabierter Satz richtige syntaktische Regeln und unterschiedliche Glieder bis hin zum Interpunktionszeichen haben‹ « (S. 271) Diese Reverenz an Kittler muss man überlesen, um zum springenden Punkt zu gelangen: »Ob Fußball oder Gericht, das Fernsehen ist begierig auf Verfahren in Echtzeit mit ungewissem Ausgang. Alles, was dem agonalen Dispositiv unterliegt, ist willkommen.« (S. 272) Die Fernsehzuschauer bilden die Masse, vor deren Augen die Entscheidung fällt. Als Beispiel dient die Live-Übertragung eines Tribunals aus der Frühzeit des amerikanischen Fernsehens, des Army-Hearing McCarthys im Frühjahr 1954. Es folgt eine spannende Schilderung der Entstehungsgeschichte und eine wunderbare Interpretation von Otto Premingers Anatomy of a Murder (1959) als »ultimativem Gerichtsfilm«. Die Verbindung zwischen Fernsehen und Film wird durch die Figur des Anwalts Joseph N. Welch hergestellt, der als Vertreter der US-Army McCarthy mit der Frage »Have you no sense of decency, sir?« vom Ankläger zum Angeklagten machte, nachdem McCarthy vor der Fernsehöffentlichkeit einen jungen Offizier unvorbereitet und unbegründet angegriffen hatte. Eben dieser Welch spielte dann den Richter in Premingers Film. Im Hintergrund die medientheoretische These: Im Gerichtsfilm zeige sich noch die klassische Einheit von Theater und Gericht. Dagegen habe das Fernsehen neben seiner Komplizenschaft zum Tribunal das Gerichtsformat nur als Vorwand für indezente Themen entdeckt und ausgeschöpft.
Der Abschnitt »Videosphären« betont einleitend den Charakter von Videos als Speichermedium – im Gegensatz zum Fernsehen, dass jedenfalls im Prinzip auf eine Liveübertragung angelegt ist. Der Abschnitt konzentriert auf den Vorhalt von Videoaufnahmen im Strafprozess und verliert sich – aus meiner Sicht – in einer Paraphrase zu Legendres Abhandlung und Film zum Fall Lortie.3
Unter der Überschrift »Fern-Justiz/Remote Judging« könnte man eine Auseinandersetzung mit Versuchen erwarten, Personen außerhalb des Gerichtssaals durch Videokameras in die Präsenzverhandlung vor Gericht zu integrieren. Doch die Überschrift entpuppt sich als Wortspiel, denn Fern-Justiz ist nicht Fernjustiz im Sinne von Remote Judging, sondern eine »überörtliche, ortlose« (S. 368) Justiz fern des Tatorts. S. 369 f. bedenkt Vismann den Cyber Court, dem die Beteiligten elektronisch zugeschaltet sind, nur als »Extremfall«. Ihr Thema ist das International Criminal Tribunal for the Former Yugoslavia (ICTY), das exemplarisch geworden ist, Vorbild für den seit 2003 tätigen Internationalen Strafgerichtshof (ICC) wurde. Aber, das ist wichtig: Mit seiner »state-of-the-art-courtroom-technology« gibt der ICTY auch für die Normaljustiz die Richtung vor (S. 360 f.) Damit ist dieses Schlusskapitel (für mich) das interessanteste und wichtigste.
Sechs Kameras und die Netzöffentlichkeit der Aufnahmen sorgen beim ICTY dafür, dass der Tribunalauftrag der Politik erfüllt wird. Allerdings kann das Gericht verhindern, dass bestimmte Aufnahmen öffentlich werden. So erklärt Vismann den Control-Screen des Vorsitzenden zum »Vorhang«, der der Szene Gerichtscharakter verleiht. Aber es geht nicht nur um eine Videoaufnahme der Verhandlung zur Dokumentation nach außen. Darum ging es ja auch 1965 im Fall Estes v. Texas, als der US Supreme Court Fernsehaufnahmen der Gerichtsverhandlung untersagte. Und darum ging es, als dasselbe Gericht 20 Jahre später das Gerichtsfernsehen zuließ mit der von Chief Justice Warren Burger verfassten Begründung, damals, in dem Estes-Verfahren, sei es zugegangen wie in einem römischen Zirkus, der Gerichtssaal voller Kameras, Kabel, Scheinwerfer, Techniker usw. Aber nun, 1985, sei das alles anders. Von der Kamera sei im Gerichtssaal gar nichts mehr zu bemerken. Und deshalb dürfe das Fernsehen zugelassen werden. Vismann dagegen meint: »Wenn das, was in camera (bei aller Öffentlichkeit) geschieht, zugleich in einem kleinen, Kamera genannten Kasten noch einmal wiederholbar gespeichert wird, sprengt das die unwiederbringliche Einzigartigkeit der Gerichtsaufführung, die unter dem Stichwort Unmittelbarkeit ins Prozessrecht eingegangen ist.« (S. 373) Erneut ein Wortspiel, das man goutieren mag, dass aber wenig beweiskräftig ist. Da werden Mündlichkeit des Verfahrens und Unmittelbarkeit der Beweisaufnahme wohl doch etwas hochstilisiert. Doch damit erschöpft sich Vismanns Medienkritik nicht. Selbst die bloße Dokumentation nach außen stört das Verfahren. Als Beleg zitiert Vismann dazu eine Untersuchung von Lanzara und Patriotto4 aus Italien. Und Vismann hat noch einen wichtigeren Punkt, der die inzwischen alte Problematik des Gerichtsfernsehens verblassen lässt. Der römische Zirkus aus dem Este-Verfahren ist mit den vielen Monitoren zurückgekehrt, die nunmehr alle Prozessbeteiligen vor sich haben und auf denen sie sich teilweise auch gegenseitig in Nahaufnahme beobachten können. Erst das Zusammenwirken der medienvermittelten Kommunikation im Prozess (»Verschaltung aller Prozessbeteiligten«, S. 369) und der medialen Vermittlung des Prozessgeschehens nach außen macht die Musik.
Es ist ein schöner Gag, wie Vismann – zunächst inkognito – ausführlich den Milosevic-Sympathisanten Peter Handke als Prozessbeobachter zitiert. Ihr Ergebnis ist eher überraschend. Das ICTY sei kein Gericht; dazu sei das theatrale Dispositiv zu schwach ausgeprägt, aber auch kein echtes Tribunal, weil ohne agonales Dispositiv, denn ein Kampf um die Wahrheit werde hier gerade nicht ausgefochten. »Mit den Richtern ist die Position des neutralen Dritten etabliert, der eine bereits vorliegende Wahrheit zutage fördert. Die medientechnischen Einrichtungen, Vorhänge aller Art, gehorchen der separierenden Logik des Gerichts als einer Macht, die entscheidet, weil sie unterscheidet.« (S. 354) Die »Streichung des agonalen Dispositivs« findet Vismann darin, dass die Vorwürfe gegen die Angeklagten wie Mord und Diebstahl als Verbrechen nach positivem Recht entpolitisiert und im Muster herkömmlicher Gerichtsverfahren verhandelt werden, und nicht als Übergang von einem Unrechtsregime zu einer neuen Rechtsordnung. Dass und warum es Milosevic (auch mit Hilfe seines Verteidigers Vergès) nicht gelang, das Verfahren tribunaltypisch zu einer politischen Anklage gegen die Veranstalter des Verfahrens oder Beteiligte des Balkankonflikts umzufunktionieren, wird nicht klar.5 Dagegen könne das ICTY als Gerichtsverfahren nicht gelingen, weil ihm durch die Medien das »Ding« abhandengekommen sei. Hier wird wieder mit Worten gespielt. Aus Fernjustiz und Gerichtsfernsehen wird Fernsehjustiz und dann werden dem ICTY Charakteristika des Fernsehgerichts imputiert. Das Haager Gericht sei Ferngericht und Fernsehgericht. Es sei auf Fortsetzungen angelegt und gehorche so wie die populären Gerichtssendungen des Fernsehens dem Gesetz der Serie. Es habe damit die gerichtstypische Performanz (»Medialität«) verloren, denn »Serien enden nicht und sie haben, sie brauchen keine Lösung.« (S. 362). Die Bindung an die Fernsehserie erzeuge die »Gesamtheit des Erzählflusses und nicht eine einzelne Sendung«.6 Das Argument überzeugt mich nicht. Was die Gerichtssendungen des Fernsehens betrifft, so hat jede einzelne Episode durchaus eine Lösung. Im Übrigen lässt sich die Internetöffentlichkeit des ICTY nicht mit dem kommerziellen Fernsehen vergleichen. Das kommerzielle Fernsehen wird für die Quote veranstaltet, die wiederum die Werbeeinnahmen generiert. Wer verfolgt denn überhaupt die Verhandlungen des ICTY im Netz? Vor allem aber ist die Netzöffentlichkeit des ICTY nicht auf eine Quote angelegt. Die Serialität ist nicht Absicht, sondern Folge der Langwierigkeit des Verfahrens. Deshalb bedarf die Annahme, dass der mediale Output auf das Verfahren rückwirkt, einer besonderen Begründung. Das schöne Wortspiel vom »denkbar dichtesten Zusammenschluss von Justizmedien und Medienjustiz in der Serie« (S. 367) ersetzt solche Begründung nicht. Aber richtig ist sicher, dass die technischen Medien nicht zuletzt wegen ihres Effizienzversprechens geschätzt und eingesetzt werden, und plausibel ist auch, dass die verfahrentstechnische Ökonomisierung zu einer Entformalisierung des Verfahrens führt. (S. 369) Die Frage ist allerdings, ob nicht um den Medieneinsatz herum ganz neue Rituale enstehen, die wir als solche bisher gar nicht wahrnehmen.
So fasst Vismann selbst am Ende (S. 374 f.) ihr Buch zusammen: »Die Geschichte der Medien der Rechtsprechung ist eine Geschichte der Informalisierung des Verfahrens. Wer Medien im Prozess zulässt, bringt die Justiz um ihre eigene Medialität. Technische Medien entziehen sich der theatralen Logik der Justiz und versetzen die Prozessbeteiligten an einen Ort, der alles andere als ein Schauplatz ist – inmitten von Kabeln und Monitoren. Sie diktieren das Verfahren, mit ihrem eigenen Takt, ihren eigenen Anforderungen und Öffentlichkeiten. Die Medien der Rechtsprechung prägen das 21. Jahrhundert, das nach Jacques Derrida ein Jahrhundert der Vergebung ist und das sich doch vor allem als ein Jahrhundert der Tribunale präsentiert.«
Das Buch ist in vielerlei Hinsicht bewundernswert. Bewundernswert ist der Umgang mit der Komplexität, mit der Fülle und Masse dessen, was andere bereits an einschlägigen Texten produziert haben. Man kann nicht mehr alles lesen, was zu den wichtigeren Stichworten des Buches geschrieben wurde und schon gar nicht mehr alles verarbeiten. Viele geben sich dennoch Mühe, möglichst viel zu schlucken und zu verdauen. Vismann dagegen blickt nicht links und blickt nicht rechts (jedenfalls tut sie so als ob). Sie macht gar nicht den Versuch, auch nur anzudeuten, was alles schon etwa über das Gericht als Theater, über Verfahrensgerechtigkeit, über Tribunalisierung, über Bilder im Recht, über den Gerichtsfilm, über den Nürnberger Kriegsverbrecherprozess, über Court TV, über Anwalts- und Gerichtsserien im Fernsehen oder über den Medieneinsatz im Gerichtsverfahren geschrieben wurde. Souverän zieht sie ihr Ding durch. Ihre Grundthese, dass Gerichtverfahren durch die publikumsorientierten Medien zunehmend vom Theater zum Tribunal würden, scheint mir plausibel und relevant zu sein. Aber sie wird doch nur essayistisch belegt und ausgeführt. Und für die von vornherein von der großen Politik mit Tribunal-Auftrag versehenen Verfahren ist die These beinahe trivial. Triftig wird sie mit der Frage, wieweit die Tribunalisierung auch in das »normale« Gerichtsverfahren hineinreicht. Auch hier begegnen immer wieder Tribunale in dem von Vismann beschriebenen Sinne, zuletzt etwa das Kachelmann-Verfahren. Diese Frage bleibt offen. Aber das ist immer so bei anregenden Büchern, dass man am Ende noch mehr wissen möchte.


  1. Susanne Karstedt, Die doppelte Vergangenheitsbewältigung der Deutschen, Zeitschrift für Rechtssoziologie 17, 1996, 58-104, 68. 

  2. Susan Sontag, Über Fotografie [Original 1977], 12. Aufl. 2000, S. 22. 

  3. Über die Rolle des Videofilms bei Legrande/Lortie vgl. : http://www.nachdemfilm.de/content/zum-status-der-videoaufzeichnung-pierre-legendres. 

  4. Giovan Francesco Lanzara/Gerardo Patriotta, Technology and The Courtroom: An Inquiry into Knowledge Making in Organizations, Journal of Management Studies 38, 2001, 943–971 

  5. Dazu deutlicher der von Vismann nur für mangelndes Zuschauerinteresse zitierte Martti Koskenniemi, <a href="http://www.google.de/url?sa=t&rct=j&q=koskenniemi%20impunity&source=web&cd=1&ved=0CCAQFjAA&url=http%3A%2F%2Fwww.mpil.de%2Fshared%2Fdata%2Fpdf%2Fpdfmpunyb%2Fkoskenniemi_6.pdf&ei=QlmkTrGgH8f34QSOqujLBA&usg=AFQjCNETg9P_OMrAdJwh2WYWEDJ_YvGhJw&cad=rja">Between Impunity and Show Trials</a>, Max Planck Yearbook of United Nations Law 2 , 2002, 1-35. 

  6. Vismann beruft sich dafür auf Nicole Labitzke (Ordnungsfiktionen. Das Tagesprogramm von RTL, Sat. 1 und ProSieben, 2009, dort S. 288. 

Related Posts:

Tags: , , , ,

Ein starkes Stück Kulturwissenschaft: Cornelia Vismanns Tribunalisierungsthese

Dieser Eintrag setzt die am 14. 11. begonnene Besprechung des Buches »Medien der Rechtsprechung« von Cornelia Vismann fort.
S. 97 beginnt der Hauptteil des Buches mit den Sätzen: »Die Techniken des Rechtsprechens folgen rechtlichen Vorgaben. In Prozessordnungen ist die Abfolge des Verfahrens vorgeschrieben. Was darin nicht gesagt wird, betrifft die Medien der Rechtsprechung. Zwar gibt es Bestimmungen und sogar Debatten über die Zulässigkeit einzelner Medien.« Nun erwarte ich ein aber, das erklärt, wieso die Medien der Rechtsprechung nicht geregelt sind. Ich finde es nicht.
Die kurzen Kapitel über »Akten« und »Die Stimme vor Gericht« (Schriftlichkeit und Mündlichkeit) paraphrasieren Bekanntes. Das gilt auch für das Kapitel »Öffentlichkeit« (die ja als solche wohl kein Medium ist). Hier findet sich jedoch der wichtige Abschnitt, in dem die Unterscheidung zwischen »Gericht« und »Tribunal« erläutert wird (S. 146-183), den »beiden antagonistischen Großformen der Rechtsprechung«, die sich im alten Rom formiert haben (S. 149).
Vismann zeigt hier Gespür für die Aktualität des Themas. Fast gleichzeitig mit ihrem Buch sind zwei Sammelbände erschienen, die das Tribunal im Titel tragen, die sie aber natürlich noch nicht kennen konnte.1 Ganz allgemein versteht man unter Tribunalisierung heute wohl die öffentliche Erörterung individueller Schuld, die aber nicht unbedingt juristische Formen annehmen muss.2 Dagegen unterscheidet Habermas in einem oft zitierten Artikel von 19923 Personalisierung und (rechtsförmige) Tribunalisierung. Wenn man nach »Tribunalisierung« gugelt, ist der erste Treffer jedoch ein Vortrag von Odo Marquard über »Tribunalisierung der Lebenswirklichkeit« von 1993, der dem Zeitgeist »Tribunalsucht« attestiert, die »Menschen die Menschen« anklagen lässt »wegen der Übel in der Welt, zu denen es durch ihre kulturschöpferischen Übeltaten komme«. Der Jurist versteht »unter einem Tribunal ein inszeniertes Gericht: etwas, das sich vom klassischen geordneten Gerichtsverfahren unterscheidet und mehr dem Theater ähnelt, etwas, was in Richtung Schauprozess geht.«4
Vismann stützt sich für die Anbindung des Tribunals an das alte Rom auf die Seiten 359-363 aus Mommsens Römischem Strafrecht5. Bei Mommsen kann man lesen, dass bis in die Kaiserzeit die öffentliche Verhandlung wohl die Regel, dass aber die Verhandlung im geschlossenen Raum zu allen Zeiten häufig gewesen sei (S. 359); ferner, dass die eigentliche Gerichtsstätte ursprünglich »der grosse Markt war und späterhin, als dieser nicht ausreichte, die Kaiserforen und die jedermann zugänglichen Markt- und Gerichtshallen (Basiliken). »Auf diesen Märkten oder in diesen Hallen wurden die Tribunale aufgeschlagen, erhöhte Estraden, auf welchen für den rechtsprechenden Imperienträger der Sessel aufgestellt ward, wo aber auch seine Berather und andere Beisitzer so wie das Hülfspersonal Platz fanden.« Für Parteien, Zeugen und Zuschauer gab es Bänke zu ebener Erde. Weiter bei Mommsen S. 362 f.: »Die nicht öffentliche Rechtsprechung findet, wenn vom Senat abgesehen wird, regelmässig statt im Hause oder in dem Amtslocal des Beamten. Der Saal, in welchem derselbe den Parteien Gehör giebt, heisst auditorium, späterhin secretarium, weil er durch einen Vorhang abgeschlossen ist und der freie Eintritt in denselben nur den Officialen und bestimmten Rangpersonen zusteht; in der Spätzeit darf die Urtheilsfällung nur in diesem Saal … stattfinden. Es kann indess auch in diesem Amtslocal durch Oeffnung des Vorhangs und Zulassung des Publikums öffentlich Gericht gehalten werden und diese Form der Oeffentlichkeit hat am Ende der Kaiserzeit die Rechtsprechung vom Tribunal verdrängt.« Der Unterschied besteht also darin, dass ein Gericht eigentlich gar nicht auf Publikum angewiesen ist (also doch kein Theater?) oder sich mit der Saalöffentlichkeit zufrieden gibt, während ein Tribunal auf unbegrenzte Öffentlichkeit angelegt ist. Später kommt noch hinzu, dass die Gerichte sich in Gebäude zurückziehen, die nur ihren Zwecken dienen. Das Tribunal kann an jedem Ort abgehalten werden. (S. 149).
Aber es geht nicht bloß um die Frage einer kleineren oder größeren Öffentlichkeit. Tribunale sind eminent politisch und haben jedenfalls die Tendenz zu einem bloßen Schauprozess, in dem der Veranstalter ein vorab feststehendes Ergebnis durchsetzt. »Die Ankläger in einem Tribunal setzen ihre Wahrheit durch, zumindest versuchen sie es. Ihre Position ist mit der des Richters deckungsgleich, und darin wird allgemein das Kennzeichen gesehen, das ein Tribunal ausmacht.« (S. 160).6 Aber in einem Tribunal kann der Ankläger auch zum Angeklagten werden. So kann auch das Gerichtsverfahren in dem Sinne tribunalisiert werden, dass die Justiz selbst zum Angeklagten wird. Das zeigt Vismann am Beispiel des französischen Anwalts Jacques Vergès (S. 181 ff.).
»Tribunale sind Ad-Hoc-Veranstaltungen.« Sie folgen keinem vorab geregelten Verfahren und sie ignorieren den Grundsatz nulla poena sine lege. Ihnen fehlt im Vergleich zum Gerichtsverfahren »die Neutralität des Richters (1), die unvoreingenommene Entscheidung nach Anhörung der Parteien und in Gemäßheit einer bestimmten Wahrheitsnorm (2) sowie die Verbindlichkeit der richterlichen Entscheidung (3)« (S. 165). Vismann denkt dabei auf die Gegenwart bezogen an so »verschiedene Dinge wie Russel-Tribunale, stalinistische Schauprozesse und internationale Verfahren« (S. 149), aber durchaus auch an den Nürnberger Kriegsverbrecherprozess oder an die justizielle Aufarbeitung der Vergangenheit in den so genannten Transformationsländern.
Viele werden die von S. 164-180 eingeschobene Reflexion über den Tisch goutieren, aus dem sie mit Hilfe Foucaults das Dispositiv des Gerichtsverfahrens ableitet. Für mich ist das ein Fall von kulturwissenschaftlichem Fetischismus. Ich begnüge mich daher mit einem Zitat »Der Tisch trifft die fundamentale Unterscheidung in das Personal des Gerichts und die Personen vor Gericht.« (S. 164) und wundere mich, wie aus dem Rechteck des Tisches eine »trianguläre Aufteilung« wird.
Gericht und Tribunal, wie sie von Vismann charakterisiert werden, lassen sich als Idealtypen im Weberschen Sinne einordnen. Dann ist »das Tribunal im Gericht latent vorhanden … Umgekehrt ist kein Tribunal in seiner Reinform zu haben« (S. 183).
Wie wird aus der Unterscheidung von Gericht und Tribunal eine medientheoretische These? »Die technischen Medien beerben hier die Versammlung im Freien. Fernsehzuschauer übernehmen die Rolle der Umstehenden. Sie sind das Medium, das einem Tribunalanspruch seine Geltungskraft jenseits aller Rechtsmacht verleiht. So kommt es, dass Tribunale sämtliche sich bietenden Medien begierig zur Amplifizierung ihres Wirkungsradius‘ ergreifen, während die ordentliche Gerichtsbarkeit bei jedem neu aufkommenden Medium jeweils erneut die Frage der Zulässigkeit erörtert …« (S. 151). »Nur die technischen Medien werden in einem Gericht zugelassen, die sich nach Art des Vorhangs der römischen Antike bedienen lassen und die Öffentlichkeit nach Belieben ein- und ausschalten.« (S. 152) Die Bildmedien, so die unausgesprochene, aber in den folgenden Kapiteln illustrierte These, drängen das Justizverfahren tendenziell in die Richtung des Tribunals. Das ist eine handfeste und plausible Aussage. In einem späteren Eintrag werde ich darüber berichten, wie sie gestützt wird. In dem Buch folgt zunächst ein Kapitel über das »Cine-Gericht«, dessen erste Abschnitte für die Tribunalisierungsthese nicht relevant sind. Darüber schreibe ich in den nächsten Tagen einen Eintrag in »Recht anschaulich«, wo schon mehrfach von »Recht im Film« die Rede war.


  1. Heinz-Dieter Assmann u. a. (Hg.), Szene & Tribunal – Orte der »Wertschöpfung«?, 2011; Georg Wamhof (Hg.), Das Gericht als Tribunal, oder, Wie der NS-Vergangenheit der Prozess gemacht wurde, 2009. In diesem spielt der Begriff des Tribunals allerdings keine Rolle. Ich habe ihn nur einmal beiläufig auf S. 70 gefunden. Immerhin geht es auch in diesem Band um den performativen Charakter der Gerichtskultur, um den Gerichtssaal als Kommunikationsraum und um die beteiligten Medien. 

  2. So war <a href="http://gfk-web.de/inhalt/presse/071129.html">in einem Zeitungsartikel</a> von der »Tribunalisierung der eher harmlosen Eva Herman wegen ihrer familienpolitischen Ansichten« die Rede.  

  3. Jürgen Habermas, <a href="http://www.zeit.de/1992/15/bemerkungen-zu-einer-verworrenen-diskussion">Bemerkungen zu einer verworrenen Diskussion</a>. Was bedeutet »Aufarbeitung der Vergangenheit« heute?, Die Zeit vom 3 April 1992, S. 82–85. Der maßgebliche Absatz lautet: »Personalisierung und Tribunalisierung lassen den Fokus von öffentlichen Selbstverständigungsdebatten unscharf werden. Beides signalisiert eine Überlastung mit Fragen, die der privaten Rechenschaft oder dem juristischen Urteil vorbehalten bleiben sollten. Damit die ethisch politische Aufarbeitung der Vergangenheit eine mentalitätsbildende Kraft erlangen und für eine freiheitliche politische Kultur Anstöße geben kann, muß sie allerdings durch juristische Verfahren und die Unterstellung einer gewissen Bereitschaft zur existentiellen Selbstprüfung ergänzt werden. So ist die Aufarbeitung der Vergangenheit ein mehrdimensionales und arbeitsteiliges Unternehmen.« 

  4. Heinz-Dieter Assmann, Die Tribunalisierung des Weltverständnisses, in: ders. u. a. (Hg.), Szene & Tribunal – Orte der »Wertschöpfung«?, 2011, S. 11-22, 12. 

  5. Im Internet verfügbar unter <a href="http://www.archive.org/details/rmischesstrafre00mommgoog">http://www.archive.org/details/rmischesstrafre00mommgoog</a>. 

  6. Dazu beruft sich Vismann auf Koskenniemi (Between Impunity and Show Trials, in: Max Planck Yearbook of United Nation Law 6, 202, 1-35, 18.) Ich lese die Belegstelle etwas anders. Koskenniemi weist darauf hin, dass das International Criminal Tribunal for the Former Yugoslavia (ICTY) zwar von politischen Absichten des Westens getragen sei, betont aber den Unterschied zu den stalinistischen Schauprozessen und auch zum Nürnberger Kriegsverbrecherprozess, denn Milosevic habe hier die Gelegenheit erhalten und wahrgenommen, seinerseits den Westen anzuklagen. 

Related Posts:

Tags: , , , ,

Ein starkes Stück Kulturwissenschaft: Cornelia Vismann, Medien der Rechtsprechung

Von vielen erwartet ist in diesem Jahr postum Cornelia Vismanns Buch über die »Medien der Rechtsprechung« veröffentlicht worden.1 Jetzt habe ich es endlich gelesen. Wer nach einer Würdigung sucht, die der Autorin und ihrem Text gerecht wird, sei auf das Vorwort der Herausgeber, auf einen Nachruf von Fabian Steinhauer2 und auf die Rezensionen von Susanne Baer in der TAZ vom 16. 6. 2011, von Andreas Bernard in der Süddeutschen Zeitung vom 27. 6. 2011 und von Winfried Hassemer, Das große Theater des Rechts, FAZ vom 8. 11. 2011 S. L38 (anscheinend nicht im Netz) verwiesen. Ich lese das Buch als schnöder Konsument, immer auf der Suche nach nützlichen Brocken, die ich als Legal McLuhanite für die Rechtssoziologie oder als Jurist für »Recht anschaulich« verwenden kann. Wenn meine Lesefrüchte oft kritisch konnotiert sind, so liegt das an dem kulturwissenschaftlichen Gestus des Buches. Allein die Tatsache, dass ich mich so ausführlich mit dem Buch befasst habe, sollte meine Wertschätzung beweisen.
Die Grundthese des Buches geht davon aus, dass »Gericht« zwei Grundmodalitäten (»Dispositive«3 ) miteinander verbindet, nämlich seine Rahmung als Theater und seinen Ablauf als Kampf, und sie besagt, dass die Dispositive unterschiedliche Medien anziehen und andere ausschließen (S. 17). Im weiteren Verlauf wird aus dem Kampf das Tribunal. Der Kampf braucht die Öffentlichkeit und deshalb zieht er die modernen Massenmedien an.
Nachdem auf den ersten 80 Seiten »Theater« und »Kampf« als »Dispositive« für das Gerichtsverfahren vorgestellt worden sind, folgen sieben Kapitel mit fast 300 Seiten über einzelne Medien. Nämlich I: Akten, II. Die Stimme vor Gericht, III. Öffentlichkeit, IV. Fotografien im Gericht, V. Cine-Gericht, VI. Fernsehen und VII. Fern-Justiz/Remote Judging.
Gleich das erste Kapitel nutzt die wichtigsten kulturwissenschaftlichen Zutaten: Etymologische Ableitungen, lösliche Paradoxien, schöne Literatur statt schnöder Empirie, französische Kronzeugen, Fetischismus und eine Prise Psychoanalyse. Später werden allerhand Wortspiele nachgereicht.4
Das »theatrale Dispositiv«, das zunächst ausgemalt wird, hat nicht eigentlich etwas mit dem Theater zu tun, sondern mit Legendre, und erschöpft sich in dem verfahrensmäßigen »Nachspielen« des Prozessthemas. Die »performative, ›dinghegende‹ Seite des Gerichts« scheint dem zu entsprechen, was gewöhnlich unter Verfahrensgerechtigkeit thematisiert. Luhmann gehöre zu den wenigen, die diesen Aspekt des Gerichtsverfahrens betont hätten (S. 22). Dem kulturwissenschaftlichen Tunnelblick fallen die Heerscharen der Amerikaner und der Epigonen zum Opfer, die sich mit procedural justice befasst haben. Das ist umso bedauerlicher, als die spezifische Performanz des auf Mündlichkeit und Unmittelbarkeit der Beweisaufnahme in einer gewissen Abgeschlossenheit stattfindenden Gerichtsverfahrens das zentrale Thema des Buches bildet. Jedenfalls: »Im Nachspielen oder Verhandeln wird das Ding zur Sache.« (S. 34) Und weiter S. 37: »Das Nachspielen verspricht demnach die fundamentale Befriedung des Dings.« Ist das nicht wunderbar tiefsinnig?
Vismann stützt ihre Thesen durch eine Interpretation von Kleists zerbrochenem Krug. Das ist funkelndes Feuilleton, wie Kleist, Sophokles, Aischylos und Dante, wie der Dorfrichter mit seinem Namensvetter aus der Schöpfungsgeschichte und mit König Ödipus, wie der Zerbrochene Krug mit der Klepsydra und später noch (S. 89) mit Klytaimnestras Gebärmutter assoziiert werden und wie wir schließlich mit Hilfe von Legendre erfahren, dass es sich um eine Interdiktion handelt, wenn Marthe Rull zuerst vom Richter Adam und dann auch noch vom Gerichtsrat Walther aufgefordert wird, »zur Sache« zu sprechen. Da fällt es schon nicht mehr ins Gewicht, wenn Ödipus (Orest tritt erst S. 90 auf) zum »Mutter-Mörder der griechischen Tragödie« wird (S. 65). Immerhin war er ja mittelbarer Täter bei deren Selbstmord. »Die radikale Kappung jedes Außen, die Umwandlung von Ding in Sache und das Erfordernis der Rede zur Sache (Interdiktion) sind danach die drei elementaren Operationsbedingungen der Justiz im theatralen Dispositiv.« (S. 56). Alles klar.
Das Justiztheater endet mit einem Urteil und damit endet auch die Beschreibbarkeit des Gerichts als Theater (S. 72). Zum Urteil muss ein Richter her. Das Gerichtstheater ist auch ein Kampf. Potentiell sind alle Zuschauer Entscheider. »Sobald Agierende von Zuschauenden unterscheidbar sind, ist die Position des Entscheidens eingeführt.« (S. 75) Vielleicht. Weiter S. 79: »Die amphitheatrale Sitzordnung ermächtigt die Zuschauer zum Entscheiden. Wer hat am besten gespielt, wer schrieb das beste Stück?« Und S. 80: »Die Amphitheater in Athen … öffneten sich auf das Meer … Diese Öffnung auf die Umwelt unterscheidet das agonale Dispositiv von der theatralen Entscheidungssituation, die in einer Kammer stattfindet, die gar nicht geschlossen genug sein kann.« Das verstehe ich nicht. Ist das Theater nicht auf Zuschauer angewiesen? Deshalb will ich einfach das Ergebnis zitieren: »Das agonale Dispositiv ist mithin durch drei Kennzeichen vom theatralen unterschieden: Zum einen durch den binären Entscheidungsmodus, der allen Wettkämpfen eigen ist (es geht um … Obsiegen oder Unterliegen), zum zweiten durch die konstitutive Funktion der Zuschauer für die Entscheidungsfindung und schließlich durch das Amphitheatralische, dass Offene der Entscheidungssituation …« (S. 81).
Bevor es nun an die Medien der Rechtsprechung geht, führt noch ein Umweg durch Literatur, nämlich durch »Die Eumeniden« des Aischylos. Ich muss gestehen, dass ich nicht verstanden habe, was die Autorin mit der Vorstellung dieses Stückes erreichen will. »Aischylos‘ letztes Drama führt das Theaterelement der Analysis mit dem Gerichtselement der Tatnacherzählung zusammen.« (S. 87) Die Verwandlung der Erinnyen zu Eumeniden, der Rachegöttinnen zu Wohlmeinenden wird als »Stunde Null des Rechts« gedeutet. (S. 92) Zugleich soll das Drama als »Gründungsstück des Vaterrechts«5verstanden werden, freilich mit der schäbigen Begründung, die Mutter sei »nur des frisch gesäten Keimes Nährerin«. (S. 88) Davor, dazwischen und danach steht noch allerhand (für mich) Dunkles. (Fortsetzung folgt)


  1. Herausgegeben von Alexandra Kemmerer und Markus Krajewski, S. Fischer Verlag, Frankfurt a. M. 2011, 456 S., 22,95 EUR. 

  2. Beobachterin zweiter Ordnung, Ancilla Juris 2010, 43-46. 

  3. Gerhard Struck (<a href="http://www.anci.ch/lib/exe/fetch.php?media=beitrag:ancilla_2009_99_struck.pdf">»Recht als Tohuwabohu und als Menschheitstraum</a> – Oder: Gibt es einen Begriff des Rechts?«, Ancilla Juris 2009, 99-117; S. 108) zitiert ausführlich die Definition des Dispositivs bei Foucault, Dispositive der Macht, und kommentiert sie mit erfreulicher Distanz. In der Tat, mit diesem Unbegriff lässt sich nichts anfangen, es sei denn, man lässt sich von Foucault bloß anregen und definiert das »Dispositiv« für eigene Zwecke neu. In diesem Sinne habe ich – mehr aus Versehen als mit Absicht – einmal vom »kognitiven Dispositiv der Schrift« gesprochen (Bilder in gedruckten Rechtsbüchern, 2005, S. 272). Gemeint war damit die Schrift als eine Möglichkeitsbedingung für eine gerichtete Entwicklung des Rechts.[ http://www.ruhr-uni-bochum.de/rsozlog/daten/pdf/Roehl-Bilder%20in%20gedruckten%20Rechtsbuechern.pdf] 

  4. Hier eine kleine Auswahl:<br /> S. 222 ff., 242 ff.: »Courtroom Drama« ist einmal das Genre fiktiver Darstellungen von Gerichtsszenen, dann aber auch das Gerichtsverfahren selbst und seine filmische Dokumentation.<br /> S. 337: Aus courtroom wird Gerichtsraum (als Gegensatz zu einem geräumigen Gerichtssaal).<br /> S. 356: »Transitional Justice ist … eine Justiz im Übergang und eine übergangsweise Gerechtigkeit«<br /> S. 333 f.: Fern-Justiz« ist nicht bloß medienvermittelte Justiz, sondern Justiz fern des Tatorts.<br /> S. 369: Als »Naturalparteien« werden eigentlich nur natürliche im Gegensatz zu juristischen Personen bezeichnet. Dieser Gegensatz ist Vismann selbstverständlich geläufig. Daher ist die »Naturalpartei« hier doppelsinnig gemeint als (natürliche) Person, die leibhaftig vor Gericht erscheint. 

  5. Zur Orestie als Gründungsmythos des Rechts vgl. den <a href="https://www.rsozblog.de/?p=940">Eintrag vom 3. Nov. 2009</a>. 

Related Posts:

Tags: , , , ,

Enzyklopädie zur Rechtsphilosophie (EzR)

Am 8. 4. 2011 wurde in Greifwald als Höhepunkt einer kleinen, aber feinen Tagung der Internetauftritt der Enzyklopädie zur Rechtsphilosophie gestartet, die im Auftrage der Deutschen Sektion der Internationalen Vereinigung für Rechts- und Sozialphilosophie (IVR) von Michael Anderheiden, Marietta Auer, Thomas Gutmann, Stephan Kirste, Frank Saliger und Lorenz Schulz herausgegeben wird. Großes Vorbild ist die Stanford Encyclopedia of Philosophy. Vorerst sind allerdings nur wenige Stichworte mit Artikeln ausgefüllt.
Der Legal McLuhanite hatte mit großen Erwartungen dem Vortrag von Thomas Vesting über »Das Medium Enzyklopädie1 – Rechtliche Expertise unter Buchdruckbedingungen und in elektronischen Netzwerken« entgegengesehen. Er war am Ende ein wenig enttäuscht, denn Vesting sparte die Enzyklopädie im elektronischen Zeitalter aus. Stattdessen berichtete er aus seinem großen Projekt »Medien des Rechts« über die Veränderungen des Rechts unter dem Einfluss des Medienwandels. Dem Legal McLuhanite kam das alles, von der Derridaisierung einmal abgesehen, doch schon sehr bekannt vor. Es gab immerhin ein paar hübsche Literaturfunde und außerdem den Hinweis auf zwei neue Bücher des Redners, die soeben im Verlag Velbrück Wissenschaft erschienen sind.2
Ich habe dem Vortrag die These entnommen, dass das Buch sich durch einen »Sinn für Abgeschlossenheit« auszeichnet, während der Computer zu fortgesetztem Überschreiben auffordert. »Enzyklopädischer Einheitswille« erzeuge die ontologische Illusion innerer Einheit des Rechts, die es in der operativen Wirklichkeit nie gegeben habe, die mindestens aber an den Nationalstaat gebunden gewesen sei. Mit der Computerkultur sei die »Zeit der Systeme« abgeschlossen. Es gebe immer nur vorübergehende Interpretationen von Wahrheit und Gerechtigkeit. Und natürlich brauchen wir dafür »eine adäquate Neugründung der Rechtstheorie«. Ich bin skeptisch. Ich halte den Computer, oder vielmehr das weltweite Netzwerk von Computern, für eine große Konvergenzmaschine. Mehr oder weniger alles wird verglichen, und Konsonanzen wirken verstärkend, bis sich die Spreu vom Weizen trennt.
Was den Ruf nach einer neuen Rechtstheorie betrifft, so tönt der nun schon seit dem Anbruch der Postmoderne.3
Doch alle rufen und keiner liefert. Genauer: Geliefert wird nur Theorie aus der Beobachterperspektive, mit der die Akteure im System wenig anfangen können. Das zeigt sich besonders in der Methodenlehre, die mein Thema auf der Veranstaltung war. Sie ist nun seit über 50 Jahren, seit den Anfängen bei Viehweg und Esser, Gegenstand so heftiger und eigentlich vernichtender Kritik, dass sie in der Versenkung verschwunden sei müsste. Aber keiner der Kritiker liefert einen brauchbaren4 Gegenentwurf. Das war noch einmal 50 Jahre früher anders. Da hatte jedenfalls Philipp Heck gezeigt, wie es gehen könnte. Aber heute gedeihen weiter die alten Blumen. Die Reihe von Lehr- und Lernbüchern zur Methodenlehre ist in den letzten Jahrzehnten ständig angewachsen ist. In anderen Werken, die vornehmlich für die juristische Ausbildung bestimmt sind, findet man selbständige Kapitel zur Methodenlehre5. Sie decken das große Bedürfnis nach Reflexion und Vergewisserung für einen zentralen praxiszugewandten Bereich der juristischen Arbeit und zeigen zugleich Vertrauen in die Lehr- und Lernbarkeit der juristischen Methode.
Nachtrag vom 19. April 2011: Der »Kommentar« (unten) ist nur ein Verweis auf den Blog Viajura von Hans Jagow. Dort meint der Autor:

Sieht alles ganz nett aus, mich stört nur irgendwie die Joomla-Umsetzung, die mir eher in die Zeit um 2004 passt, als zu 2011. Vielleicht wird sie technisch noch überarbeitet, aber in der Wissenschaft zählt Webdesign ja nicht allzu viel.

Ich muss gestehen, dass ich diesen Kommentar nicht ganz unberechtigt finde. Wie man kreativ mit der WordPress-Blogsoftware ein ansehnliches Design für eine Internetenzyklopädie schaffen kann, zeigt das Beispiel der Internet Encyclopedia of Philosophy (IEP). Auch inhaltlich scheint mir diese Internetenzyklopädie, die anscheinend im Schatten von Stanford steht, beachtlich. Zur »Philosophy of Law« gibt es immerhin zehn Artikel, zur politischen Philosophie 35, darunter viele Personenartikel, die auch für die Rechtsphilosophie einschlägig sind. Unter den Herausgebern und den Verfassern der Artikel habe ich bisher keine Bekannten gefunden. Aber das muss kein Fehler sein.


  1. Ist die Enzyklopädie ein Medium? 

  2. »Die Medien des Rechts: Sprache« sowie »Die Medien des Rechts: Schrift«. Wer sich schnell einen Eindruck verschaffen will, findet von Vesting in Ancilla Juris 2010 den Aufsatz <a href="http://www.anci.ch/lib/exe/fetch.php?media=beitrag:ancilla2010_47_vesting.pdf">»Rechtstheorie als Medientheorie</a> (Supplement I) – Überlegungen zur Notwendigkeit der Verknüpfung von Sprachtheorie und Medientheorie«. 

  3. Die Postmoderne dauert nun schon so lange, dass sie eigentlich vorüber sein müsste. Wie nennen wir denn unser gegenwärtiges Zeitalter? Bis mir etwas Besseres begegnet, spreche ich einmal von Popomo (Postpostmoderne.)  

  4. Mancher wir hier auf das Werk von Friedrich Müller/Ralph Christensen (Juristische Methodik: Grundlegung für die Arbeitsmethoden der Rechtspraxis,) verweisen, dass 2009 in 10. Auflage erschienen ist. Beide Autoren haben sich als Kritiker der konventionellen Methodenlehre profiliert. Ich bewundere ihr großes Werk. Aber ich bezweifle, dass es praktisch brauchbar ist. Die Brauchbarkeit leidet schon durch die (nicht nur) wegen der ungewöhnlichen Zählweise ungenießbare Gliederung. Sie leidet weiter durch die Einführung neuer oder die Umdeutung alter Begriffe, die nicht zuletzt wegen der relativ alltagsnahen Wortwahl mehrdeutig bleiben. Und sie leidet unter Redundanz und Eigenlob. Für das letztlich doch konventionelle Ergebnis erscheint der enorme Aufwand überzogen. Für die »Rechtsarbeit« braucht man am Ende doch wieder, wenn auch mit manchen Caveats, die alten Methoden. 

  5. Zuletzt Heiko Sauer, Juristische Methodenlehre, in: Julian Krüper (Hg.), Grundlagen des Rechts, 2011, 168-186. 

Related Posts:

Tags: , , , , , ,