Markierte Einträge ‘Konvergenzmaschine’

Poikilophilie — die Homophobie der Humanities

Wenn man eine These promovieren will, braucht man einen irgendwie perzeptiv prominenten oder anreizenden Begriff. (Oft stellt sich dann heraus, dass der neue Begriff nur ein neues Kleid für alte Bekannte ist wie z. B. der Begriff Doxa bei Bourdieu.) In früheren Einträgen hatte ich meine Thesen von der Konvergenz wissenschaftlicher Sätze in den Humanities ausgebreitet. Eine weiter ausgearbeitete Version habe ich als Referat für die Tagung »Versprechungen des Rechts« der deutschsprachigen Rechtssoziologie-Vereinigungen angemeldet. Nun suche ich noch nach einem griffigen Begriff, um auf meine Thesen aufmerksam zu machen.

Ausgelöst wurden sie u. a. durch die Annahme/Vermutung/Beobachtung, das aktuelle Ideal der Geistes- und Sozialwissenschaften bestehe in der Suche nach Vielfalt, während die Suche nach Konsonanzen, Übereinstimmungen oder Konvergenzen als langweilig oder gar als diskriminierend gelten. Diese Grundhaltung könnte man mit einem Begriff, der bisher nur in der Biologie gelegentlich verwendet wird, als Poikilophilie1 kennzeichnen. Aber dieser Benennung fehlt der Schwung. Warum nicht auf den Gegenbegriff zugreifen und den Humanities Homophobie vorhalten? Natürlich, der Begriff ist belegt. Aber gerade daraus gewinnt er seinen Reiz.2

Homophobie, also die Furcht vor – oder auch nur die uneingestandene Abneigung gegenüber – Gleichem oder Gleichartigem, ist, was ich den Geistes- und Sozialwissenschaften unterstelle, nämlich eine ausgeprägte irrationale Scheu, sowohl auf der Objektebene als auch auf der Metaebene der Wissenschaft nach Übereinstimmungen, Konsonanzen oder Konvergenzen zu suchen. Stattdessen huldigen sie der Poikilophilie. Vielfalt wird nicht bloß konstatiert, sondern konstruiert.

Die Thematisierung von Konvergenz hat natürlich – ebenso wie die Poikilophilie – einen normativen Überschuss. Er folgt aus der Vermutung, dass die einseitige Thematisierung von Vielfalt diese in einer Weise aufwertet, dass sie positiver Pluralität im Wege steht. Für die Unterscheidung von positiver und negativer Pluralität beziehe ich mich auf David Apter. Dazu mit Nachweisen im Eintrag Die Einfalt der Vielfalt vom 2. Oktober 2012.


  1. Von griechisch ποικίλος = bunt und φιλíα = freundschaftliche Liebe. 

  2. In Psychologie und Psychiatrie war es seit jeher üblich, Angststörungen als Phobien zu benennen. »Homophobie« war der ungewöhnlich erfolgreiche Neologismus des Psychologen George Weinberg. (Society and the Healthy Homosexual, 1973. Insoweit habe ich mich mit der Konvergenz verschiedener Internetquellen zufrieden gegeben.) Da der zweite Wortbestandteil eindeutig griechischen Ursprungs ist und eben Angst oder Furcht bedeutet, liegt es nahe, auch die erste Worthälfte aus dem Griechischen abzuleiten, wiewohl griechisch-lateinische Mischbildungen als Fremdworte vorkommen. Das nächstliegende Beispiel ist die Homosexualität. Sexus steht im Lateinischen für das Geschlecht, und homo wäre der Mensch. Aber das »Homo« in dieser Wortbildung leitet sich vom griechischen ὅμοιος = gleich ab. Homophobie wäre also die Furcht vor – oder auch nur die uneingestandene Abneigung gegen – Gleichem oder Gleichartigem. 

Related Posts:

Tags:

Eine Konvergenztheorie des Wissens (5. und letzte Fortsetzung)

Gründe 81-92
Wissensnetzwerke

81. Die Konvergenz des Wissens zeigt sich unterschiedlich stark je nach dem Modus seiner Anordnung. Scholastische Wissensübersichten waren hierarchisch aufgebaut. Die klassischen Enzyklopädien ordneten das Wissen seriell alphabetisch. Heute gilt es als ausgemacht, dass Wissen als vernetzt vorgefunden wird und/oder als Netz angeordnet werden kann. Zwar kann man auch eine hierarchische und eine serielle Anordnung von Elementen als Netzwerk behandeln. Gemeint sind aber Netzwerke, deren Kanten allein durch die Semantik der Knoten bestimmt werden.

82. Wissensnetze sind semantische Netze. Jedes Wissenselement muss anschlussfähig sein, um vernetzt werden zu können. Deshalb liegt die Vermutung nahe, dass nicht anschlussfähiges Wissen verloren geht. Tatsächlich ist aber wohl jedes Wissenselement anschlussfähig, denn keines ist voraussetzungslos entstanden. Wir stehen nicht nur auf den Schultern von Riesen, sondern auch auf denen von Zwergen. Und wenn es nicht so wäre: Was nicht passt, wird passend gemacht.

83. Man greift auf ein Wissenselement in der Regel nicht direkt zu, sondern nähert sich ihm von benachbarten Anschlüssen her.

84. Das Wissen der Welt ist als sekundäres mehr oder weniger vollständig im Internet versammelt.

85. Das technische Netz des Internet ist nicht selbst ein Wissensnetz. Aber es produziert Wissensnetze und vermittelt den Zugang zu ihnen.

86. Das Internet fügt viele separierte Wissensnetze zusammen.

87. Was nicht im Netz (des Internet) ist, zählt und wirkt nicht als Wissen.

88. Einem Vortrag von Thomas Vesting habe die These entnommen, dass das Buch sich durch einen »Sinn für Abgeschlossenheit« auszeichnet, während der Computer zu fortgesetztem Überschreiben auffordert. Mit der Computerkultur sei die »Zeit der Systeme« abgeschlossen. Es gebe immer nur vorübergehende Interpretationen von Wahrheit und Gerechtigkeit1 Auch Fortschreibungen und Überschreibungen können sich als Konvergenzen erweisen. Konvergenz muss nicht statisch sein.

89. Die Wissenschaftssoziologie von Ludwik Fleck über Thomas S. Kuhn bis hin zu Bruno Latour, Steve Woolgar und Karin Knorr-Cetina hat mit der These, dass es sich bei den Produkten der Wissenschaft um kontextspezifische Konstruktionen handle, die durch »Situationsspezifität und Interessenstrukturen, aus denen sie erzeugt wuden, gezeichnet sind«.2 Sieht man einmal davon ab, dass die damit behauptete Relativität wissenschaftlicher Propositionen sich mehr auf die Wahl der Forschungsthemen und Methoden bezieht als auf die Validität der Ergebnisse, so ist das Internet eine relativ kontextfreie Zone, in der sich die Konvergenz kontextrelativer Propositionen erweisen kann.3

90. Die Wissenschaftstheorie weist inkompatible Varianten auf mit der Folge, dass institutionalisierte Wissenschaft in vielen Fällen als Zertifizierungsinstitution des Wissens versagt4. So übernehmen die Datenverarbeitung und insbesondere auch das Internet durch die Ermittlung von Konvergenzen und Divergenzen mindestens ergänzend die Aufgabe der Zertifizierung wissenschaftlichen Wissens.

91. Das Internet erzeugt im Unterschied zu dem spontan, methodisch oder im Diskurs erreichten Konsens Konvergenz durch Akkumulierung.

92. Quantitativ ermittelte Konvergenz ist keine Garantie für Qualität, wird aber mangels Alternative zum Qualitätsersatz.


  1. Vgl. den Eintrag vom 15. 4. 2011. 

  2. K. Knorr-Cetina, Die Fabrikation von Erkenntnis, 2. Aufl., 2002, 25. 

  3. »Stärker als die vielleicht ja lösbaren technischen Herausforderungen stellt sich die kulturelle Grundfrage des verteilt und vernetzt gespeicherten Wissens. Globalisierung heißt kulturelle Dekontextualisierung. Wissen entsteht bisher in einer Zeit, an einem Ort, in einer Kultur, das Netz ist aber gleichzeitig und überall. Seine kulturelle Vorgaben sind ihm in Kalifornien und Massachusetts mitgegeben worden. Das Netz reißt Wissen in globalem Maße aus seinen zeitlichen und räumlichen kulturellen Kontexten heraus und stellt Wissen unterschiedlichster Güte und Art beziehungslos nebeneinander. Content und Kontext sind freilich nicht unabhängig voneinander und der Verlust des kulturellen Kontextes devaluiert den Inhalt.« (Wolfgang Coy, a. a. O.). 

  4. Ulrich Wengenroth, Zur Einführung: Die reflexive Modernisierung des Wissens, in: ders. (Hg.), Grenzen des Wissens, 2012, 7-22, S. 8, 19. 

Related Posts:

Tags: ,

Eine Konvergenztheorie des Wissens (4. Fortsetzung)

Gründe 66-80
Das Internet als Konvergenzmaschine

66. Das Internet steht hier als Kürzel für alle Möglichkeiten der elektronischen Dateinspeicherung und Verarbeitung. Für den Konvergenzeffekt wichtiger als das Jedermann-Internet sind vermutlich elektronische Zeitschriften und andere professionelle Datenbanken, die zwar in der Regel über das Internet erreicht werden, aber keinen freien Zugang anbieten.

67. »Medial gespeichertes und kommuniziertes Wissen gibt es in enormer Quantität, aber von sehr unterschiedlicher Qualität. Die Wissenschaften, aber auch Philosophie, Staat oder Religion haben sich über Jahrhunderte bemüht, Ordnung in das aufbewahrte Wissen zu bringen – mit unterschiedlichen Ansprüchen und unterschiedlichem Erfolg. Qualitätssicherung kann durch religiöse, politische oder rechtliche Entscheidung erfolgen. Das Gesetz ist im Prozeß der Rechtsprechung zu interpretieren, aber es darf von dieser nicht mißachtet werden. Das ist eine politische Entscheidung. Inkonsistenzen der Bibel sind als Emanationen des göttlichen Willens hinzunehmen. Das ist eine theologische Entscheidung. In den Wissenschaften gibt es andere entwickelte Mechanismen der Qualitätssicherung, etwa durch klare Abgrenzung des Geltungsbereichs aufgestellter Behauptungen, durch die Angabe intersubjektiv überprüfbarer Entscheidungsverfahren oder durch prüfbare Nachweise. Trotzdem ist auch die Wissenschaft nicht frei von Bedingtheiten und Befangenheiten. Kulturelle Traditionen und Rücksichten, der paradigmatische Kontext wissenschaftlicher Arbeit und wissenschaftlichen Denkens oder die Fixierung zulässiger Methoden bilden neben den auch vorhandenen, autoritären Aspekten wissenschaftlicher Schulen Schranken für eine globale, zeitlich unbeschränkte Gültigkeit wissenschaftlichen Wissens. Betrachten wir den Stand der Qualitätssicherung in den unterschiedlichen Medien, so können wir angesichts ihrer Resultate letztlich nur resignieren. Es mag in einzelnen wissenschaftlichen oder rechtlich abgesicherten Bereichen gelungen sein, Wissen nach Qualitätsstandards aufzubereiten, eine allgemein akzeptierte, interkulturelle Qualitätssicherung des Wissens gibt es jedoch nicht. Und selbst in den scheinbar gesicherten Arealen der Wissenschaft herrscht ein munterer Pluralismus, der neben Sympathie und wechselseitiger Hilfe auch Abneigung, Mißgunst und Boshaftigkeit kennt, also Emotionen, die der Qualitätssicherung gelegentlich im Wege stehen.«1

68. Konvergenz ist keine Garantie für Qualität, wird aber mangels Alternative zum Qualitätsersatz.

69. Das Internet erzeugt im Unterschied zu dem spontan, methodisch oder im Diskurs erreichten Konsens Konvergenz durch Akkumulierung.

70. Die traditionelle Konvergenzmaschine war die Synopse. Sie war und ist leistungsfähig, bleibt aber doch in der Regel das Werk einzelner Autoren und hängt insofern an deren Kompetenzen und Kapazitäten. Das Internet macht Konvergenzen und – weniger effektiv – Divergenzen ohne (viel) subjektive Wissensarbeit kenntlich.

71. Im »Web of Science« zeigen und verstärken sich die Konvergenzen durch Zitationsanalysen und andere bibliometrische Daten wie Impact Factor und Hirsch-Index.

72. »Hypertextsysteme erscheinen als eine Möglichkeit, intertextuelle Bezüge, die bis dahin latent waren, in manifeste Bezüge – in Links eben – zu überführen und damit Strukturen nachzuzeichnen, die quer zu den linearen Syntagmen die verschiedenen Texte immer schon verbinden.«2 Diese Möglichkeit hängt nicht davon ab, ob es möglich sein wird Hypertext-Maschinen zu programmieren3

73. Ein Schritt zur Konvergenz liegt in der Anonymisierung des Wissens, das heißt, in seiner Ablösung von Autoren und Autoritäten.4 Das Netz trägt mindestens auf dreierlei Weise zur Anonymisierung bei, nämlich erstens durch die Schwierigkeiten einer schulgerechten Zitation5, zweitens durch die Fülle der Texte, die den eigentlichen Urheber oft nicht mehr erkennen lässt6, und drittens natürlich durch unbekümmertes Copy and Paste.

74. Weiter in Richtung Konvergenz wirkt das zunehmende Desinteresse an der Genese von Wissen, das durch die Kombination von Informationsflut und Medienbeschleunigung getrieben wird. Damit gehen vielfältige Divergenzen etwa verschiedener Textversionen bestimmter Autoren, an denen sich die Wissenschaft abarbeitet, verloren.

75. »Na klar stimmt das, ich hab’s aus dem Netz«.7 Gemeint ist damit die Autorität des Netzes als Wissensquelle. So wie das gedruckte Buch hat auch das Netz per se Autorität, die auf alle darin auffindbaren Propositionen durchschlägt. Diese Autorität tritt aber mehr und mehr in den Hintergrund, erstens weil es inzwischen zum Allgemeinwissen gehört, dass im Internet viel Unsinn zu finden ist, und zweitens, weil das Internet zu fast jeder Frage nicht bloß eine, sondern mehrere Antworten herausgibt. Von den Antworten sind viele irrelevant, oft zeigt sich Übereinstimmung, nicht selten auch Divergenz.

76. Das Anwortspektrum des Internet ist von der Suchstrategie des Nutzers abhängig. Wie trennt man die Spreu vom Weizen? Von Pirolli und Card stammt die Theorie der optimalen Futter- bzw. Informationssuche (Information Foraging).8 Dazu bieten die Informationswissenschaften Theorien und empirische Forschung, die vielleicht weiter helfen.9

77. Die Technik der Internetsuchmaschinen führt zu einer Positivauslese, weil häufiger angeklickte Webseiten einen besseren Rang erhalten und so bei weiteren Suchvorgängen bevorzugt angeboten werden.

78. Technisch gehen in Datenbanken keine abweichenden Inhalte verloren. Grundsätzlich kann alles wiedergewonnen werden. Praktisch gibt es aber auch eine Negativauslese, mit der Folge, dass selten nachgefragte Webseiten bei den Suchmaschinen zurückgestellt werden, bis sie niemand mehr nachschlägt.

79. Medienumbrüche führen zu einer »natürlichen« Auslese. Gedruckt wurde nur noch, was relevant und zutreffend erschien. Auch die Dauerarchivierung von Büchern durch Digitalisierung bringt Verluste. Nach der Digitalisierung sieht es auf den ersten Blick anders aus. Aber die digitalen Medien veralten. Sie müssen im Abstand von etwa einem Jahrzehnt umkopiert werden, um lesbar zu bleiben. Dabei wird wiederum bewusst oder unbewusst eine Auswahl getroffen.

80. Inzwischen sind viele, wenn nicht die meisten wissenschaftlichen Bücher eingescannt und bei Google Books aufrufbar. Zwar gibt es immer nur Bruchstücke des Buches zu lesen. Die Suchfunktion durchsucht jedoch auch die nicht abrufbaren Seiten und zeigt die Stichwörter dann mit einem kurzen Kontext auf dem Bildschirm an. Sie findet oft mehr Stichwörter als im Stichwortverzeichnis angegeben.10


  1. Wolfgang Coy, turing@galaxis.comII, in: ders./Martin Warnke (Hg.), HyperKult, 2005, 15-32, S. 17f. Im Netz als Vortragsmanuskript von 1997 unter dem Titel »Überall & gleichzeitig. Informatik, Digitale Medien und die Zukunft des Wissens«

  2. Hartmut Winkler, Docuverse, 1997, S. 43f. 

  3. Dazu kritisch Winkler a. a. O. S. 44ff. 

  4. Zur Bedeutung der Autorschaft bei wissenschaftlichen Texten vgl. Felix Steiner, Dargestellte Autorschaft, Autorkonzept und Autorsubjekt in wissenschaftlichen Texten, 2009. 

  5. Eine schulgerechte Zitation von wissenschaftlichen Texten hat wohl grundsätzlich zwei Ziele. Das erste und wichtigere ist die Vermeidung von und der Schutz vor Urheberrechtsverletzungen und Plagiaten. Das andere Ziel ist die Kenntlichmachung der Genealogie von Ideen. Darauf verweist der Quellenbegriff. Für beide Ziele ist es mehr oder weniger notwendig, dass die Zitation das Zitat reproduzierbar macht. Die Reproduzierbarkeit hängt allerdings nicht allein von der Zitation, sondern auch vom Medium ab. Texte in Büchern und Zeitschriften sind relativ stabil, Texte im Internet dagegen sind relativ änderbar und flüchtig. Dagegen soll angeblich die Angabe des Abrufdatums helfen, tut sie aber nicht. Technische Mittel wie die Internetdienste Webcite oder Internet Archive sind unpraktisch und auch nicht verlässlich. Das Medium regiert auch die äußere Gestalt der Zitation. Bücher und Zeitschriften sind mit den üblichen Zitierweisen dank des ausgefeilten Katalogsystems erstaunlich gut auffindbar. In der Regel wird bei der Zitation zuviel des Guten getan. Erscheinungsort und Verlag, sind, jedenfalls bei inländischen Büchern, überflüssig, ähnlich bei Zeitschriften die Angabe des Jahrgangs. Das beweist ihr weitgehendes Fehlen dieser Angaben in den Nachweisen der juristischen Literatur. Verlags- und Jahrgangsangaben sind daher vor allem ein Indiz für die Qualität der Quelle. Übervollständige Zitationen dienen vielen Autoren vielleicht auch dazu, die Sorgfalt ihrer Arbeitsweise zu demonstrieren. Sie belasten dagegen die Lesbarkeit und Ästhetik des Textes. Das gilt verstärkt für die URL von Internettexten. In Internettexten selbst werden die URL von Internetquellen das vielfach als Hyperlink versteckt. Bisher gibt es keine praktikable Möglichkeit, Hyperlinks unmittelbar aus gedruckten Quellen aufzurufen. Das Eintippen oder Einscannen der URL ist nicht sehr attraktiv und in der Regel auch überflüssig, weil die Quelle sich einfacher ergugeln lässt. Unter diesen Umständen wird die Kehrseite der Zitationspflicht immer wichtiger, die darin besteht, den Autor vor Plagiatsvorwürfen zu schützen. 

  6. Das zeigt das Beispiel der Wissenskugel oben bei Nr. 20. 

  7. Überschrift von Stefan Weber in der FAZ Nr. 104 vom 6. 5. 2009 S. N3. Vgl. dazu den Eintrag vom 14. 4. 2010

  8. Peter Pirolli/Stuart K. Card, Information Foraging, Psychological Review 106, 1999, 643-675; Peter Pirolli, Information Foraging Theory. An Adaptive Interaction with Information, Oxford University Press 2007. 

  9. Z. B. Yvonne Kammerer, Separating the Wheat from the Chaff: The Role of Evaluation Instructions. User Characteristics, and the Search Interface in Evaluating Information Quality During Web Search, 2011; dies./Peter Gerjets, Quellenbewertungen und Quellenverweise beim Lesen und Zusammenfassen wissenschaftsbezogener Informationen aus multiplen Webseiten, Unterrichtswissenschaft 42, 2014, 7-23. 

  10. Von dieser Möglichkeit habe ich in dem Eintrag vom 20. 11. 2014 (bei Fußnote 21 und 25) Gebrauch gemacht. Im Register des »Handbuchs Wissenssoziologie« kommt »Konvergenz« nicht vor. Google Books zeigt von diesem Band zwar keine Textseiten, gibt aber auf Nachfrage Auskunft, dass der Begriff auf sechs Seiten des Buches erscheint, zeigt allerdings nur drei von sechs Suchergebnissen (S. 553, 768 und 771. 

Related Posts:

Tags: ,

Eine Konvergenztheorie des Wissens (3. Fortsetzung)

Gründe 52-65
Wissensrecycling und Redundanz

52. Die zeitgenössische Version eines naiven Fortschrittsglaubens äußert sich in der Rede von einer immer kürzeren Halbwertszeit des Wissens. Doch was veraltet, sind konkrete Fragen, Instrumente zu ihrer Beantwortung und die damit gewonnenen Daten. Das systematische Wissen über die Gesellschaft und ihr Recht zeigt dagegen eine erstaunliche Beständigkeit oder Kontinuität, so dass auch heute noch nicht nur Philosophen, sondern auch manche Rechts- und Sozialwissenschaftler mit Platon und Aristoteles diskutieren, als seien sie Zeitgenossen. Epochenumbrüche, wie sie von Kuhn als Paradigmenwechsel vorgestellt worden sind, waren nie so radikal, dass sie eine tabula rasa hinterlassen hätten.

53. Wissensrecycling: Das vorhandene Wissen wird etwa alle dreißig Jahre recycelt, ohne als Neuauflage erkennbar zu sein. Die zurzeit so beliebte Jagd nach Plagiaten wirkt vor diesem Hintergrund eher beckmesserisch.1

54. Die Warenwelt hat in die Wissenschaft Einzug gehalten. Die Produktion von Literatur ist billig geworden, nachdem Herausgeber und Autoren auch Lektorat und Layout der Texte übernommen haben und von den Verlegern keine Vegütung mehr erhalten. Verlage wie C. H. Beck, Springer, Hart Publishing, Oxford University Press u. a. mehr produzieren laufend schöne und teure neue Bücher, in denen wenig Neues steht. Es traut sich niemand, Literatur, die sich selbst als wissenschaftlich deklariert, für überflüssig zu erklären.

55. Wann immer man liest, die Literatur zu einer bestimmten Frage sei unübersehbar geworden,2 wird es Zeit die Masse dieser Literatur zu vergesen.

56. Ein Indiz für die Konvergenz des Wissens ist die zunehmende Verwendung von Sekundärliteratur – der ich mich – mindestens in dieser Reihe von Einträgen – anschließe.

57. In den Naturwissenschaften gibt es zum Teil eine Praxis des Reviews, die den Rückgriff auf ältere Texte abschneidet. Dazu werden periodisch an prominenter Stelle zusammenfassende Darstellungen der Forschungsergebnisse veröffentlicht mit der Folge, dass man sich künftig nicht mehr auf die Originalliteratur bezieht. In der Rechtswissenschaft treten an die Stelle solcher Reviews die Kommentare. Für Philosophie und Sozialwissenschaften ist dagegen die Zusammenführung des Wissens kaum institutionalisiert. Immerhin gibt es hier und da eine Diskussion über die Kanonisierung des Wissens.3

58. Als Indiz für die Konvergenz des Wissens taugt auch das Phänomen Wikipedia. Hier entsteht Konvergenz durch gemeinschaftliche Textarbeit. »Ein Wiki ist so etwas wie eine Schnapsbrennerei für verschärftes Wissen. Aus Infotrauben, die von verschiedenen Orten und Pflückern zusammengetragen werden, entsteht im Laufe der Zeit ein immer weiter konzentriertes, immer klareres und verfeinertes Destillat. Anders als in Blogs oder Online-Foren, wo Themen einem chronologischen Verlauf folgen, verdichtet sich der Stoff in einem Wiki zunehmend. Aus Daten und Informationen wird Wissen. … Wer zum Wikitum konvertiert, glaubt daran, dass die Welt edierbar ist.«4

59. Im kulturalistischen Jargon redet man nicht von Konvergenz, sondern von kollaborativer Wissenskonstruktion in Netzwerken oder im Wiki.5

60. Es bahnen sich technische Verfahren für die Zusammenführung konsonanter Literatur an.6 Die Diskussion wird unter dem Stichwort »Digital Humanities« geführt.7

61. Für Juristen gibt es Suchmaschinen die nach Präzedenzfällen suchen. Mit Suchmaschinen, die eigentlich dazu entwickelt wurden, um Plagiate zu entdecken, findet man auch inhaltliche Duplizität.8

62. Wissenschaftliche Texte beginnen oft mit einem Referat über die Geschichte des behandelten Problems und über bisherige Lösungsvorschläge. Oft folgt dann ein Teil, in dem die vom Autor zugrunde gelegte Methode dargestellt wird. Der historische und der methodische Vorspann sind wegen der Konvergenz der Inhalte besonders anfällig für Plagiate. Bei der Vorstellung seiner Plagiatssoftware schreibt Harold Garner:
»Als probates Gegenmittel bietet sich die Textanalyse an. Sie vermag nicht nur die Unsitte des Plagiierens abzuschaffen, sondern könnte auch völlig neue wissenschaftliche Kommunikationsformen unterstützen.
Eine faszinierende Idee hierzu ist vom Modell des Onlinelexikons Wikipedia inspiriert: Man schafft eine dynamische, elektronische Sammlung von Veröffentlichungen zu einem Thema, die von Wissenschaftlern kontinuierlich redigiert und verbessert wird. Jede neue ›Publikation‹ besteht aus einem Beitrag zu einem einheitlich wachsenden Wissensschatz; redundante Methodenabschnitte werden überflüssig. Das Wikipedia-Modell wäre ein Schritt zu einer zentralen Datenbank, die alle wissenschaftlichen Publikationen in sämtlichen Disziplinen umfasst. Autoren und Redakteure würden mittels Textanalyse die Originalität einer neuen Forschungsarbeit bestätigen …. «

63. Eine individuelle Strategie zur Bewältigung der Textredundanz ist die »offene Patchworkmethode«. Sie besteht darin, Schlüsselstellen des eigenen Textes aus offen ausgewiesenen Zitaten zu bauen. Sie findet ihre Grenzen im Urheberrecht, das den Umfang zulässiger Zitate begrenzt. Die Umfangsbegrenzung gilt jedoch nur für die Entnahme aus einem Text. Es gibt keine Beschränkung für die Anzahl von (Kurz-)Zitaten aus verschiedenen Texten. Daher lässt sich ein neuer Text vollständig aus Fremdzitaten herstellen. Der Extremfall wäre ein Hypertext-Essay nach dem Xanadu-Konzept, der nur aus einer Zusammenstellung von Links bestünde. Zur Charakterisierung juristischer Dissertationen hieß es früher gelegentlich, da werde aus 100 (oder 1000) Quellen ein neuer Text gebastelt.

64. »Distant Reading«: Die Literaturwissenschaft beklagt die Masse der Texte, die niemand mehr lesen kann. Als Ausweg hat Franco Moretti9 (Stanford Literary Lab) eine Methode des Distant Reading vorgeschlagen. Sie besteht im Prinzip darin, Texte nicht zu lesen, sondern sie mit computergestützten Verfahren sozusagen zu vermessen.10 Die Vermessung gilt sowohl eher äußerlichen Eigenschaften (Literaturgenre, Stil usw.) als auch den Inhalten (etwa Plots in Romanen oder Argumentationen in Gerichtsurteilen).11

65. Search Term Reading: Meine Methode des Distanzlesens – die ich vermutlich mit vielen Wissenschaftlern teile – ist das Stichwortlesen (search term reading). Sie besteht schlicht darin, viele Texte nicht Satz für Satz von Anfang bis zum Ende zu lesen, sondern sie auf gerade interessierende Stichworte zu scannen. Früher hatte man dazu mehr oder weniger gute Stichwortregister. Heute liest man viele Texte auf dem Bildschirm. Alle Browser verfügen über eine Suchfunktion. Die meisten Texte werden wohl als PDF gelesen, und selbstverständlich hat auch die dafür übliche Software eine Suchfunktion. Als Bild eingescannte Texte werden dazu in durchsuchbare umgewandelt.


  1. Zygmunt Baumann kokettiert wohl, wenn er (in einem Interview) sagt »Mein Leben besteht darin, Information zu recyceln.« Ich dagegen nehme diese Aussage für mich als bare Münze. 

  2. Z. B. bei bei Andreas Voßkuhle, Expertise und Verwaltung, in: Hans-Heinrich Trute (Hg.), Allgemeines Verwaltungsrecht, 2008, 637-663, S. 639 Fn. 11 zum Wissensmanagement. 

  3. Den Weg zur Kanonisierung bahnen viele Anthologien oder Zusammenfassungen nach Art der »Hauptwerke«-Reihe im Kröner Verlag. Bemerkenswert ist der Eifer, mit dem Austin Sarat sich als »advocate for disciplinization« für eine Kanonisierung des Faches einsetzt. Zwar spricht er nicht von legal sociology oder sociology of law, sondern von »law and society scholarship«. Aber der Sprachgebrauch in den USA ist eben anders. Schon als Präsident der Law and Society Association hatte Sarat sich für eine »Kanonisierung« des Faches ausgesprochen. Bemerkenswert auch, dass er dafür Juristen (Jack Balkin und Sanford Levinson) zitiert: »Every discipline, because it is a discipline, has a canon, a set of standard texts, approaches, problems, examples, or stories that its members repeatedly employ or invoke, and which help define the discipline as a discipline.«. Seither hat Sarat durch die Herausgabe von zahlreichen Readern und des »The Blackwell Companion to Law and Society« selbst erheblich zur Abgrenzung und Befestigung dieses Kanons beigetragen. 

  4. Peter Glaser, Schnapsbrennerei für verschärftes Wissen, Heise-online, 06.04.2012. 

  5. Vgl. das Projekt »Kollaborative Wissenskonstruktion mit Wiki« am Leibniz Institut für Wissensmedien; und daraus Aileen Oeberst/Iassen Halatchliyski/Joachim Kimmerle/Ulrike Cress, Knowledge Construction in Wikipedia: A Systemic-Constructivist Analysis. Journal of the Learning Sciences, 23, 2014, 149-176. 

  6. Vgl. Kavita Ganesan/ChengXiang Zhai/Jiawei Han, Opinosis: A Graph Based Approach to Abstractive Summarization of Highly Redundant Opinions, Proceedings of COLING 2010, 340-348. Nachzugehen wäre auch der Meldung, dass die Fakultät für Informatik und Mathematik der Universität Passau ein Forschungsprojekt CODE zur Extraktion und Visualisierung von Informationen aus wissenschaftlichen Publikationen und dem Web 2.0 gestartet hat [http://idw-online.de/de/news483053]. 

  7. Überblick über die Aktivitäten weltweit bei Poul Holm/Dominic Scott/Arne Jarrick, Humanities World Report 2015, Kap 4 »The Digital Humanities« [http://www.palgraveconnect.com/pc/oa/browse/inside/chapter/9781137500281.0007/9781137500281.0007.html?chapterDoi=9781137500281.0007&focus=pdf-viewer#page=0]. Für Deutschland vgl. die Pressemitteilung der Goethe-Universität Frankfurt a. M. Wie der Computer mit den »Digital Humanities« Einzug in die Geisteswissenschaften hält vom 16. 12. 2014 [http://idw-online.de/de/news618503]. Seit 2007 erscheint die E-Zeitschrift Digital Humanities Quarterly

  8. Harold »Skip« Garner, Computerjagd nach Plagiaten, Spektrum der Wissenschaft Dezember 2014, 60-63. 

  9. Franco Moretti, Kurven, Karten, Stammbäume, Abstrakte Modelle für die Literaturgeschichte, 2009; ders., Distant Reading 2013. Zu dem neueren Buch – einer Aufsatzsammlung – vgl. die ausführliche Rezension von Shawna Ross, In Praise of Overstating the Case: A Review of Franco Moretti, Distant Reading (London: Verso, 2013, Digital Humanities Quarterly 8/1, 2013. 

  10. Kathryn Schulz, What Is Distant Reading? The New York Times – Sunday Book Review vom 24. 6. 2011[http://www.nytimes.com/2011/06/26/books/review/the-mechanic-muse-what-is-distant-reading.html?pagewanted=all&_r=0]. 

  11. Zu dem, was Moretti in Gang gebracht hat, vgl. auch den Tagungsbericht von Tobias Haberkorn, Es gibt einfach zu viele Texte, FAZ vom 12. 11. 2014 S. N3. 

Related Posts:

Tags: ,

Eine Konvergenztheorie des Wissens (2. Fortsetzung)

Gründe 34-51
Sekundäres und externalisiertes Wissen

34. Die Konvergenzthese bezieht sich nur auf externalisiertes Wissen, das heißt auf solches, das außerhalb des menschlichen Gedächtnisses gespeichert ist.

35. Nur ein kleiner Teil des individuellen Wissens stammt aus erster Hand. Der weitaus größere Teil des Wissens wird von anderen übernommen. Die Masse des Wissens zirkuliert als sekundäres Wissen.

36. Wissenschaftstheorie fragt immer nur danach, wie Wissen mit Wahrheitsanspruch gewonnen werden kann. Zwar verbindet sich mit diesem Anspruch derjenige auf Intersubjektivität. Die intersubjektive Übertragbarkeit von Wissen hängt aber nicht von einer theoretischen Lösung der Wahrheitsfrage ab, sondern ist ein soziales Phänomen.

37. Für die eigene Lebenswelt hat man vielleicht noch den Eindruck, man kenne sie aus eigener Erfahrung. Doch schon der Eindruck täuscht. Schon meinen eigenen Lebenslauf kenne ich zum Teil nur aus Berichten von Eltern und Verwandten. Das Weltwissen dagegen stammt mehr oder weniger vollständig aus sekundären, tertiären oder noch weiter entfernten Quellen. Man lernt es mehr oder weniger planmäßig in Familie und Schule, aus Büchern und anderen Medien oder beiläufig im Umgang mit anderen Menschen. Die Qualität dieses Wissens wird in der Regel gar nicht hinterfragt. Sie ergibt sich unmittelbar aus der sozialen Beziehung zur Wissensquelle.

38. Auch Wissen, das als wissenschaftlich ausgezeichnet ist, ist ganz überwiegend Wissen aus zweiter Hand. Die Wissenschaftlichkeit einer Proposition folgt, ganz gleich welcher Wissenschaftstheorie man folgt, aus der Prozedur seiner Herstellung. Nur wer selbst an dieser Prozedur beteiligt ist, verfügt über Wissen erster Hand. Aber das sind verschwindend wenige. Deshalb kursiert auch wissenschaftlich erzeugtes Wissen grundsätzlich als Wissen aus zweiter Hand. Ein prominentes Beispiel bietet das Milgram-Experiment. Versuchsanordnung und Ergebnisse werden durchgehend zustimmend referiert und gelten beinahe schon als Allgemeinwissen.

39. Für die Qualifizierung von Wissen aus zweiter Hand hat die Wissenschaftstheorie wenig zu bieten. Zu denken ist immerhin an die Methoden zur Erstellung von Metastudien. Alle zusammenfassenden Referate, Übersichtsartikel, Lehrbücher usw. sind der Sache nach (qualitative) Metastudien, die selten oder nie ihre Methodik reflektieren.1 Häufiger sind methodische Überlegungen zu quantitativen Metanalysen.

40. Für die Qualifizierung von Wissen aus zweiter Hand lässt sich auch an die Diskussion über die Qualifizierung so genannten Testimonialwissens anknüpfen, die von Oliver R. Scholz in Gang gebracht worden ist.2 Das Konzept einer sozialen Erkenntnistheorie (Social Epistemology)3 betont die soziale Konstituierung und Vernetzung von Wissensbeständen.

41. Subjektive Wissensarbeit hat Konvergenz- und Divergenzeffekte. Auch die (objektive) Zirkulation von Wissen jenseits subjektiver Wissensarbeit bringt Effekte in beiden Richtungen. Die Konvergenzthese besagt natürlich, dass die Konvergenzeffekte überwiegen. Sie macht für die Konvergenzeffekte aber in erster Linie objektive Umstände (Eigenschaften des Wissens, Speichertechniken, Wiedergewinnungsmethoden u. a. mehr) verantwortlich. Daher die Überschrift: das Internet als Konvergenzmaschine.

42. Subjektive Wissensarbeit ist überfordert, wenn es darum geht, den Stand (wissenschaftlicher) Literatur auch nur zu einer einzelnen Proposition repräsentativ zu verarbeiten. Ein wissenschaftlicher Aufsatz zitiert heute im Schnitt vielleicht 20 bis 30 Quellen (und macht daraus 100 Fußnoten). Tatsächlich werden die meisten Themen aber bereits in hunderten oder tausenden von Texten behandelt. Die Nachweise in wissenschaftlichen Abhandlungen sind durchweg nicht annähernd repräsentativ. Niemand kann alles lesen, was etwa zur Abschreckung durch schärfere Sanktionen oder zur Beeinflussung richterlicher Entscheidungen durch die soziale Herkunft, zur Stufenbaulehre Merkls oder zur Drittwirkung der Grundrechte geschrieben worden ist. Das überfordert die menschliche Kapazität und das scheitert konkret auch oft an Disziplingrenzen, an der Verfügbarkeit der Texte und an Sprachproblemen. Ich vermute, dass deshalb sich abzeichnende Konvergenz vielfach verdeckt bleibt. Hinzu kommt – weiterhin vermutlich – eine Tendenz aller Schreiber, Divergenzen zu betonen, sei es weil Konsonanzen langweilig sind, sei es weil sie glauben, sich dadurch besser profilieren zu können.

43. Die Wissenschaftstheorie der Postmoderne scheint der Konvergenzthese wenige Chancen zu geben. Sie sieht sich außerstande, eine konsistente und einvernehmliche Position zu entwickeln, von der aus Wissenselemente als falsch ausgesondert werden können. Sie vertritt vielmehr einen Multiperspektivismus, der statt einer Wahrheit viel Wahres akzeptiert oder gar hervorbringt. Vielleicht ist aber gerade der bewusste Perspektivenwechsel ein Instrument zur Feststellung von Wissenskonvergenz. Was aus unterschiedlichen Perspektiven gleich bleibt, zeigt »aperspektivische Objektivität«.

44. In das Weltwissen ist vieles eingegangen, was einmal Thema wissenschaftlicher Forschung und nicht selten auch umstritten war. Nur ein kleiner Teil des Weltwissens ist explizit als epistemisch verlässlich, das heißt als wissenschaftlich begründet, ausgezeichnet. Doch längst gibt es einen großen Wissensbestand, dessen Herkunft aus der Wissenschaft gar nicht mehr wahrgenommen wird. In solchem Allgemeinwissen hat sich die Konvergenz des Wissens bereits realisiert.

45. Wie Sekundärwissen sich verfestigt, kann man bei der individuellen Informationssuche beobachten. Die Suchmaschine ersetzt oder verdrängt das zweifelnde Fragen und das Ringen um eine eigene Antwort. Wenn immer eine Frage auftaucht, wird nach Lösungen gegugelt. Eine davon muss es sein. Die richtige Antwort schält sich heraus, wenn man die ersten zehn oder vielleicht auch 20 Suchergebnisse auf Plausibilität und Übereinstimmung durchsieht.

46. Suchregeln, Gewichtungsregeln und Stoppregeln werden kaum explizit ausformuliert Aber sie sind implizit doch vorhanden. Drei Filter ergänzen sich, indem sie Quantität, Qualität und Kohärenz der Quellen zusammenfügen.

47. Quantität: In aller Regel gibt man sich mit der ersten Auskunft nicht zufrieden, sondern sucht nach mehreren übereinstimmenden Ergebnissen. Wie viele müssen es sein? Das hängt natürlich auch davon ab, ob es widersprechende Ergebnisse gibt. Juristen sind mit der Vorstellung von herrschender Meinung und Mindermeinung vertraut.

48. Wissenschaftliches Wissen, das aus dem Internet reproduziert wird, hat den Charakter von Lehrmeinungen.

49. »The idea that truth can best be revealed through quantitative models dates back to the development of statistics (and boasts a less-than-benign legacy). And the idea that data is gold waiting to be mined; that all entities (including people) are best understood as nodes in a network; that things are at their clearest when they are least particular, most interchangeable, most aggregated — well, perhaps that is not the theology of the average lit department (yet). But it is surely the theology of the 21st century.«4

50. Für die Qualität der Quelle gibt es unterschiedliche Anhaltspunkte. Der erste ist Autorität der Autorenschaft. Der zweite ist das Erscheinungsbild der Quelle: Elaboration, Design usw. Wichtig ist schließlich, ob sich Ergebnisse und Begründungen plausibel zusammenfügen. Man könnte von inferentiellem Wissen sprechen.

51. Elaboration verdient besondere Aufmerksamkeit. Psychologen verstehen darunter eine vertiefte Informationsverarbeitung des Individuums durch die Einbettung neuer Information in das Netzwerk des Vorwissens. Hier ist dagegen die Elaboration der Darbietung von Wissen gemeint. Sie beginnt bei einem elaborierten Sprachstil, der sich als »wissenschaflich« zu erkennen gibt. Vor allem aber besteht sie, analog zu der individuellen Elaboration von Wissen, in der Einfügung singulärer Propositionen in einen größeren Zusammenhang. So geschieht es immer wieder in Dissertationen und Habilitationsschriften, dass eine an sich begrenzte These in eine umfangreiche historische Darstellung eingebettet wird, die möglichst alles referiert, was zum Thema gesagt wurde, mag es auch noch so obsolet sein. Kunstgerechte Elaboration »wirkt«, weil der Rezipient den – meistens durchaus zutreffenden – Eindruck gewinnt, hier sei großer Aufwand getrieben worden, um ein Ergebnis zu finden. Der Aufwand dient bis zu einem gewissen Grade als Ersatz für Gründe.


  1. Everett M. Rogers, der Klassiker der Diffusionstheorie (Diffusion of Innovations, 5. Aufl., New York, NY 2003), von dem in diesem Blog schon mehrfach die Rede war, berief sich in der ersten Auflage von 1962 auf 506 empirische Untersuchungen. Bis zur fünften Auflage von 2003 hatte sich die Zahl der in Bezug genommenen Untersuchungen auf 5200 reichlich verzehnfacht. De facto handelt es sich hier um eine Metastudie, ohne dass Rogers sich dazu besondere methodische Gedanken gemacht hätte. Greenhalgh u. a. , die ab 2001 im Auftrag des UK Department of Health der Diffusion und Nachhaltigkeit von Innovationen im Gesundheitswesen nachgingen, haben einen Literaturbericht erstellt, der sich auf 1024 Quellen stützt. Die wesentlichen Ergebnisse wurden zunächst 2004 in einem Aufsatz zusammengefasst (Trisha Greenhalgh/Glenn Robert/Fraser Macfarlane/Paul Bate/Olympia Kyriakidou, Diffusion of Innovations in Service Organisations: Systematic Literature Review and Recommendations for Future Research, Milbank Quarterly 82, 2004, 581-629), der vollständige Bericht ist 2005 unter dem gleichen Titel als Buch erschienen. Anders als Rogers haben Greenhalgh u. a. sich mit den methodischen Herausforderungen einer solchen Kompilation befasst (Storylines of Research in Diffusion of Innovation: A Meta-Narrative Approach to Systematic Review, Social Science & Medicine 61, 2005, 417-430.)  

  2. Oliver R. Scholz, Das Zeugnis anderer. Prolegomena zu einer sozialen Erkenntnistheorie, in: Thomas Grundmann (Hg.), Erkenntnistheorie, Positionen zwischen Tradition und Gegenwart, 2001, 354-375 sowie Bibliographie ebd. S. 391-394; ders., Das Zeugnis der Sinne und das Zeugnis anderer, in: Richard Schantz (Hg.), Wahrnehmung und Wirklichkeit, 2009, 183-209; ders., Das Zeugnis anderer – Sozialer Akt und Erkenntnisquelle, in: Sybille Schmidt/Sybille Krämer/Ramon Voges (Hg.), Politik der Zeugenschaft. Kritik einer Wissenspraxis, 2011, 23-45; Nicola Mößner, Wissen aus dem Zeugnis anderer, 2010. 

  3. Zur Orientierung vgl. den Artikel »Social Epistemology« von Alvin Goldman in der Stanford Encyclopedia of Philosophy, 2006. Seit 1987 erscheint eine Zeitschrift »Social Epistemology«, deren Texte überwiegend neben meinem Thema liegen. 

  4. Kathryn Schulz, What Is Distant Reading?, The New York Times – Sunday Book Review vom 24. 6. 2011. 

Related Posts:

Tags: ,

Eine Konvergenztheorie des Wissens (1. Forsetzung)

Gründe 18-33:
»Literaturflut – Informationslawine – Wissensexplosion«.1

18. Hinter diesen Stichworten steckt nicht unbedingt ein Gegenargument zur Konvergenzthese. Sie verweisen jedoch auf wichtige Zusammenhänge, nämlich erstens auf die These von dem unbegrenzten und unbegrenzbaren Wachstum des Wissens, zweitens auf die Möglichkeiten und Probleme einer Quantifizierung des Wissens und drittens auf Versuche, das anscheinend unbremsbare Wachstum des Wissens zu relativieren.

19. Die These vom unbegrenzten und unbegrenzbaren Wachstum des Wissens schließt an die These vom Unwissen als Kehrseite des Wissens. Letztere stammt angeblich schon von Goethe, der gesagt haben soll »Mit dem Wissen wächst der Zweifel.« Sie ist selbst ein Beispiel für die Konvergenz des Wissens. Die kürzeste Formulierung lautet wohl »Wissen produziert Unwissen.« Etwas ausführlicher: »Je mehr man weiß, desto mehr wächst der bewußte Bereich des Ungewußten.«2 Die These taucht an vielen Stellen auf, ohne dass man auf dieselbe Quelle Bezug nimmt.3

20. Die These vom unbegrenzbaren Wachstum des Wissens wird oft mit Hilfe der Metapher von der Wissenskugel ausgedrückt. »Die Kugel des Gewussten liege im Meer des Ungewussten. Damit ist klar, je mehr wir wissen, desto größer ist der Kontakt der Kugeloberfläche zum Ungewussten.«4 Die Proposition, die dahinter steckt, die Aussage nämlich, dass mit der Zunahme des Wissens der Bereich des Unwissens wächst, ist selbst ein Beispiel für die Konvergenz des Wissens, taucht dieser Gedanke doch an verschiedenen Stellen immer wieder auf. Werner Marx nennt als Erfinder der Wissenskugel ohne Nachweis Hubert Markl, als Fortsetzer Jürgen Mittelstraß und verweist dazu auf einen Radiovortrag von 19925. Matthias Groß6 verweist auf einen Aufsatz von Mittelstraß von 19967. Und Mittelstraß nennt sich selbst als Quelle.8 Der Gedanke ist freilich älter. Ich meinerseits habe bereits 19749 festgehalten: »Sowie sich der Kreis des Bekannten vergrößert, wird die Peripherie, an der er sich mit dem Unbekannten berührt, immer länger.«, als Quelle von Hayek10 angegeben und außerdem in der Fußnote Popper11 zitiert: »The more we learn about the world, and the deeper our learning, the more conscious, specific, and articulate will be our knowledge of what we do not know, our knowledge of ignorance. For this, indeed, is the main source of our ignorance – the fact that our knowledge can only be finite, while our ignorance must necessarily be infinite.« Der Wissenskugel entspricht eine Verstehenskugel: »Jeder Zuwachs an Verstehen ist zugleich ein Zuwachs an Verstehen des Nichtverstehens und damit eine kontinuierliche Unterminierung des Verstehens. Auch die durch das hermeneutische Verfahren zu behebende Ungewißheit ist damit ›Ungewißheit ohne Ende‹, die durch Zunahme von Wissen nie endgültig aufzuheben ist.«12 Bei Teubner lesen wir: »In der Wissenschaft erzeugt die Forschung immer höhere Ungewissheiten, die nur durch verstärkte Forschung wieder beseitigt werden können, die wiederum neue Ungewissheiten erzeugen.«13

21. Die Quantifizierung des Wissens fordert eigentlich eine Wissensdefinition und deren Operationalisierung. Hier liegt ein bisher nicht befriedigend gelöstes Problem. Daher wird die quantitative Zunahme des Wissens indirekt gemessen, vor allem durch Zählung von Menschen mit wissenschaftlicher Ausbildung als Wissensproduzenten und von Publikationen als Wissensträger. Konvergenzen lassen sich mit solchen Zählungen nicht erkennen.

22. Die Versuche, die anscheinend unbremsbare Zunahme des Wissens zu relativieren, beginnen bei der Definition des Wissens, und zwar durch die Ausscheidung von Daten und Informationen. Ein weiterer Schritt ist die Qualifizierung des Wissens. Dazu dienen etwa die Messung von Zitierhäufigkeiten und die Ermittlung Veraltungszyklen. Beides könnte, aber muss nicht auf Konvergenz hindeuten. Die Konvergenzthese lässt sich ihrerseits als Versuch der Relativierung der Wissensexplosion verstehen, wiewohl das nicht ihre eigentliche Zielrichtung ist.

23. Die These hinter der Wissenskugel geht stillschweigend davon aus, dass das vorhandene Wissen irgendwie konsolidiert ist und vor allem auch gewusst wird. Die These von der Konvergenz des Wissens interessiert sich kaum für das Unwissen außerhalb der Kugel, sondern sie befasst sich mit der Konsolidierung des Kugelinhalts. Die Konsolidierung (vorhandenen) Wissens setzt voraus, dass das Wissen überhaupt zur Kenntnis genommen wird. Die unzulängliche Konsolidierung von Wissen hat ihre Ursache vielfach nicht in Unwissen, sondern in Unkenntnis des Wissens (ignorance).14

24. Die Konvergenz von Wissen lässt sich nur durch Zweitbeobachtung feststellen. Bei der Zweitbeobachtung wird Wissen zu sekundärem Wissen. Oder im kulturalistischen Code: Es geht um Repräsentationen.

25. Wissen ist oft komplex und speziell. Es kann und muss für unterschiedliche Zielgruppen verständlich dargestellt werden. Die Konvergenz verträgt sich mit einer vielfältigen sprachlichen und visuellen Aufbereitung des Wissens.

26. Die Möglichkeiten sprachlicher Variation sind enorm. Originalität wird leicht durch die unterschiedliche sprachliche Darstellung von Wissen vorgetäuscht. Mehr oder weniger alle Aussagen sind mehrfach zu finden. Das bringen die bekannten Redensarten zum Ausdruck: Neuer Wein in alten Schläuchen. – Das Rad wird neu erfunden. – Nichts Neues unter der Sonne. Wer älter ist wie der Verfasser dieses Textes, muss sich vor solchen Redensarten hüten. Fraglos gibt es immer wieder Neues. Aber angesichts der wissenschaftlichen Massenproduktion bleibt es doch erlaubt, auf die Vielzahl der auf den ersten Blick unsichtbaren Übereinstimmungen und die sich darin zeigende Konvergenz des Wissens hinzuweisen.

27. Da Wissen immer durch Zeichen repräsentiert werden muss, ist wegen der Interpretationsfähigkeit insbesondere von Sprachzeichen mit dem Einwand zu rechnen, dass eine eindeutige Feststellung von Konvergenz nicht immer möglich ist. Doch Wissen, dass nicht intersubjektiv transferierbar ist, ist kein wissenschaftliches, sondern bleibt Literatur, Kultur oder Unterhaltung. Wissenschaft gründet auf der Unterstellung, dass das Problem der Interpretationsvarianz für ihren Bereich lösbar ist. Intersubjektive Transmissibilität heißt allerdings nicht Transmissibilität der Akzeptanz einer Proposition, sondern lediglich Möglichkeit des gleichsinnigen Verständnisses.

28. Die Konvergenz des Wissens geht regelmäßig mit einer Trivialisierung einher. Das Wissen der Welt ist in Sprache (und teilweise in Formeln, Bildern und Grafik, die hier vernachlässigt werden) gespeichert. Die Konvergenz zeigt sich erst, wenn ein Wissenselement referiert wird oder referierbar ist. Jedes Referat ist eine »Übersetzung«. Nach der Theorie der kulturellen Übersetzung hat jede Übernahme von Wissen eine Veränderung zur Folge. Prinzipiell ist das wohl richtig. Aber da wird tüchtig übertrieben. Mit der Feststellung von Konvergenz geht allerdings Redundanz verloren, und mit der Redundanz Konnotationen.

29. Ein wichtiger Schritt zur Konvergenz des Wissens ist die Konvergenz von Definitionen. Da jeder frei ist, seinen Gegenstand zu definieren, redet man oft dasselbe aneinander vorbei. Diese Freiheit ist kann und will niemand einschränken. Aber sie lässt sich disziplinieren, indem man sich bemüht, bei einer vorhandenen Definition anknüpfen, die sich anscheinend bewährt hat, um dann – wenn erforderlich – seine Kritik und Abweichungen anzuschließen.

30. In diesem Sinne übernehme ich für die (vorläufige) Festlegung auf einen Wissensbegriff die Definition von Marc Porat15, und zwar auf dem Umweg über Daniel Bell16, weil ich aus ihrer Verwendung durch Bell schließe, dass die Definition mindestens brauchbar ist. Danach bildet Wissen eine »Sammlung in sich geordneter Aussagen über Fakten und Ideen, die ein vernünftiges Urteil oder ein experimentelles Ergebnis zum Ausdruck bringen und anderen durch irgendein Kommunikationsmedium in systematischer Form übermittelt werden.« Grundlage des Wissens bilden Informationen. »Informationen sind Daten, die organisiert und kommuniziert worden sind.«

31. Diese Definition steht im Gegensatz zu dem imperialistischen Wissensbegriff der Kulturwissenschaften, der alle bewussten und unbewussten psychischen Zustände einschließt.

32. Ähnlich relevant wie Definitionen sind wissenschaftliche Fragen. Die Konvergenz von Propositionen setzt eine einheitliche Fragestellung voraus.

33. Statik und Dynamik – Beschreibungen und Erklärungen: Wisenskonvergenz bedeutet kein Ende des sozialen Wandels. Es konvergieren in erster Linie die Erklärungen. Beschreibungen können nur solange konvergieren, wie der beschriebene Zustand bleibt.
(Nr. 20 wurde am 13. 12. ergänzt. Fortsetzung folgt.)


  1. Werner Marx, Literaturflut – Informationslawine – Wissensexplosion. Wächst der Wissenschaft das Wissen über den Kopf?, Forschung 4, 2011, 96-104 (zitiert wird vielfach noch eine ältere Internetversion aus dem Jahr 2002 des Artikels von Werner Marx und Gerhard Gramm.)  

  2. Beide Formulierungen aus Christoph Engel/Jost Halfmann/Martin Schulte, Wissen – Nichtwissen – unsicheres Wissen, 2002, Vorwort S. 9. Diesen nicht überprüften Nachweis habe ich (ohne die Fundstelle zu notieren) von Schmidt-Assmann übernommen. 

  3. Z. B. bei Martin Schulte, Eine soziologische Theorie des Rechts, S. 130: »Keine Generierung von Wissen ohne gleichzeitige Generierung von Nichtwissen!« Schulte verweist auf zwei Titel von Klaus Peter Japp, darunter: Die Beobachtung von Nichtwissen, Soziale Systeme 3, 1997, 289-312. Andreas Voßkuhle spricht von dem »externen Bereich des Unerforschten« als etwas durch »wissenschaftliches Wissen selbst Konstituiertes« und nennt als Quelle einen Text von Peter Wehling (in: Hans-Heinrich Trute u. a., Allg. Verwaltungsrechts, 2008, S. 653). Peter Wehling ist überhaupt eine gute Quelle für die These vom Unwissen als Kehrseite des Wissens, z. B.: Die Schattenseite der Verwissenschaftlichung. Wissenschaftliches Nichtwissen in der Wissensgesellschaft., in: Stefan Böschen/Ingo Schulz-Schaeffer (Hg.), Wissenschaft in der Wissensgesellschaft, 2003, 119-142, oder ders., Artikel »Wissen und Nichtwissen« in: Rainer Schützeichel, Hg., Handbuch Wissenssoziolgie, 2007, 485-494). 

  4. Rainer Schröder/Angela Klopsch, Der juristische Doktortitel, Humboldt Forum Recht 2012, S. 33, ohne Nachweis. 

  5. Von Marx 2011 bei Fn. 4. 

  6. Die Wissensgesellschaft und das Geheimnis um das Nichtwissen, in: Cécile Rol/Christian Papilloud, Soziologie als Möglichkeit, 2009, S. 105. 

  7. Nichtwissen: Preis des Wissens? In: Schweizerische Technische Zeitschrift 93, 1996, 32-35. 

  8. In dem Internet-Manuskript »Gibt es Grenzen des Wissens?«, 2008. 

  9. Das Dilemma der Rechtstatsachenforschung, S. 39. 

  10. Friedrich A. von Hayek, Rechtsordnung und Handelsordnung, in: Zur Einheit der Rechts- und Staatswissenschaften, Karlsruhe 1967, S. 195 ff., 205. 

  11. Karl R. Popper, On the Sources of Knowledge and of Ignorance, in: Conjectures and Refutations, London 1963, S. 28. 

  12. Zitat aus Ino Augsberg, Die Lesbarkeit des Rechts, 2009, S. 187, er wiedrum auf Luhmann, Die Religion der Gesellschaft, 2000, S. 47 verweist. 

  13. Verfassungsfragmente, 2012, S. 129, ohne Nachweis. 

  14. Andrew Abbott, Varieties of Ignorance, The American Sociologist 41, 2010, 174-189. 

  15. The Information Economy. Definition and Measurement, Washington D.C. 1977, S. 2. 

  16. Die nachindustrielle Gesellschaft, 1975, S. 180. 

Related Posts:

Tags: ,

Eine Konvergenztheorie des Wissens

Mir fällt immer stärker auf, dass in vielen Büchern zur Rechtsphilosophie, Rechtstheorie, Methodenlehre und Rechtssoziologie mehr oder weniger dasselbe zu lesen ist. Oft wird Konvergenz nicht wahrgenommen, weil die Autoren unterschiedlichen wissenschaftlichen Schulen, Zitierkartellen usw. angehören, so dass sie gar nicht merken oder merken wollen, wieweit sie in der Sache übereinstimmen. Noch häufiger wird die Konvergenz hinter immer neuen Formulierungen versteckt, sei es, um das Selbstbild des originalen Wissenschaftlers zu wahren, sei es um den Eindruck eines Plagiats zu vermeiden. Für Lehrbücher und Kommentare zum geltenden Recht gilt das erst recht.

Mir fällt weiter auf, wenn ich Texte aus verschiedenen Disziplinen lese, dass sie auf den ersten Blick zwar nichts miteinander zu tun haben, bei näherer Hinsicht jedoch erstaunliche Parallelen aufweisen. Das ist mir zuletzt bei ethnologischen Texten aufgefallen, die der Sache nach der Diffusion von bestimmten gesellschaftlichen Organisationsformen nachgehen, die sich aber strikt weigern, sich als Diffusionsforschung einzuordnen, und ihre Beobachtung statt dessen in Konzepte von travelling models und kultureller Übersetzung verpacken.

Schließlich fällt mir auf, dass das neue Ideal der Geistes- und Sozialwissenschaften in der erfolgreichen Suche nach Vielfalt zu bestehen scheint, während die Suche nach Konsonanzen oder Übereinstimmungen als langweilig oder gar als diskriminierend gilt. Der »Willkommensgruß des postmodernen Philosophen in Richtung der Vielfalt, des Fragmentierten, Polymorphen und Instabilen«1 war höchst erfolgreich.

Diese Beobachtungen sind Anlass, drei zunächst grobe Thesen zu formulieren:
– Das Wissen der Welt konvergiert.
– Es lohnt sich, der einst von Peirce formulierten Konvergenztheorie der Wahrheit nachzugehen.
– Das Internet erweist sich als Konvergenzmaschine für das Wissen der Welt.

Die Publikationsform des Blogs bietet Möglichkeit und Versuchung zugleich, unfertige Gedanken vorzuzeigen. Die folgende Begründung ist ebenso grob wie die Thesen. Jeder Absatz könnte und müsste breit ausgearbeitet werden, und vermutlich gibt es zu den darin angesprochenen Fragen schon viele Überlegungen, die – unter anderem mit der Konvergenzmaschine Internet – zu einer Antwort zusammengefügt werden können. Sicher gibt es viele Gegengründe, die ich aber ausblende, um mich zunächst meiner These zu versichern. Auch so ist dieser Notizzettel schon so lang geworden, dass ich ihn auf mehrere Einträge verteile. Ich nummeriere die Notizen durch, weil mir bisher eine systematische Gliederung fehlt.

782 Gründe
Teil I: Empirische und epistemische Konvergenztheorien

1. Es geht um Wissen, dass als wissenschaftlich gilt. Für die MINT-Fächer wäre die Konvergenzthese vielleicht kaum der Rede wert, wiewohl auch diese von wissenschaftstheoretischen Skrupeln geplagt werden.3 Mir geht es um die Geistes- und Sozialwissenschaften.

2. Konvergenztheorien treten entweder als empirische oder als epistemische auf. Empirische Konvergenztheorien behaupten die Konvergenz sozialer Entwicklungen, welcher Art auch immer. Prominent war etwa die Konvergenzthese als Element der Modernisierungstheorie, die besagte, dass kapitalistische und sozialistische Gesellschaftsformen am Ende konvergieren würden. Auch die Modernisierungstheorie selbst ist in ihrer klassischen Version eine Konvergenztheorie. Rechtsvergleicher diskutieren die Konvergenz des Rechts auf Weltebene oder jedenfalls auf Europaebene, auch das primär unter empirischen Aspekten.

3. Demgegenüber stehen epistemische Konvergenztheorien, das heißt solche, die in irgendeiner Weise die Wahrheitsfrage behandeln. Allen modernen Wahrheitstheorien ist die Ablehnung des von ihnen so genannten Fundamentalismus gemeinsam. Gemeint ist damit die Vorstellung, dass wissenschaftliche Erkenntnis auf einem festen Fundament aufbauen könne und müsse, sei es auf dem empirischen Sinnkriterium, sei es auf Vernunft oder auf einer Kombination von beidem. Konsenstheorien der Wahrheit sind jedenfalls insoweit noch fundamentalistisch, als sie darauf abstellen, dass nicht jeder Konsens, sondern nur ein solcher, der durch einen vernünftigen Diskurs gewonnen wird, als Wahrheitsersatz gelten kann.

4. Konvergenztheorien der Wahrheit sind in der Regel Kohärenztheorien. Das heißt, sie stellen darauf ab, dass Sätze nicht isoliert betrachtet werden dürfen, sondern dass menschliches Wissen »holistisch« als Netzwerk zu verstehen sei. Es gewinnt seine Qualität aus der stimmigen Einbettung in einen größeren Zusammenhang. Moderne Konvergenztheorien tragen daher die Sammelbezeichnung »semantischer Holismus«. Analog zur diskursorientierten Konsenstheorie der Wahrheit gibt es auch eine realistisch orientierte Konvergenztheorie der Wahrheit. Sie stammt von Peirce und besagt etwa, dass in einer unendlich entfernten Zukunft Realität und Gedanken über die Realität konvergieren werden. Bis dahin sei alle Erkenntnis fallibel: »Wahrheit ist die Übereinstimmung einer abstrakten Feststellung mit dem idealen Grenzwert, an den unbegrenzte Forschung die wissenschaftliche Überzeugung anzunähern die Tendenz haben würde.«4 »In the long run«, so lautet die häufig wiederkehrende Formel in den »Collected Papers«. Mit dem Internet und seinen Suchmaschinen ist der weite Weg ein Stück kürzer geworden.

5. Ob die Wahrheitstheorie von Peirce ihrerseits als Korrespondenztheorie oder als Konsenstheorie einzuordnen ist, ist sekundär. Ältere Äußerungen sprechen für eine fundamentalistische Korrespondenztheorie, die eine Entsprechung der Erkenntnis zu einer unabhängigen Realität erwartet, die eben durch die vollständige Konvergenz der Realitätsbeschreibungen angezeigt wird. »Es gibt reale Dinge, deren Eigenschaften völlig unabhängig von unseren Meinungen über sie sind; dieses Reale wirkt auf unsere Sinne nach regelmäßigen Gesetzen ein, und obwohl unsere Sinnesempfindungen so verschieden sind wie unsere Beziehungen zu den Gegenständen, können wir doch, indem wir uns auf die Gesetze der Wahrnehmung stützen, durch schlußfolgerndes Denken mit Sicherheit feststellen, wie die Dinge wirklich und in Wahrheit sind; und jeder, wenn er hinreichende Erfahrung hat und genug darüber nachdenkt, wird zu der einzig wahren Konklusion gerührt werden«5

6. Wichtiger ist, dass der Wahrheitsbegriff von Peirce nicht nur epistemisch, sondern auch empirisch ist. Er ist epistemisch, weil er Bedingungen angibt, unter denen Sätze, als wahr ausgezeichnet werden können. Und er ist empirisch, weil er die Prognose wagt, dass tatsächlich einmal (»in the long run«) ein Konvergenzzustand erreicht sein könnte.

7. Solche Konvergenz betrifft nur einzelne wissenschaftliche Propositionen. Sie ist zwar hinsichtlich jeder singulären Proposition denkbar. Es ist aber nicht anzunehmen, dass irgendwann einmal alle wissenschaftlichen Sätze durch Konvergenz bestätigt werden – Oder?

8. Für die Auszeichnung als wissenschaftlich verwende ich den institutionellen (oder formellen) Wissenschaftsbegriff.6 Das heißt, Wissenschaft definiert sich selbst und ist darauf angewiesen, dass ihre Umgebung diese Definiition akzeptiert. Was immer in den traditionellen Institutionen der Wissenschaft (Universitäten, Forschungsinstitute usw.) produziert wird, wird wie selbstverständlich als wissenschaftlich angenommen. Vielleicht geht die Entwicklung dahin, dass auch durch Datenverarbeitung gewonnene Sätze als wissenschaftlich akzeptiert werden. Dann werden wir Google Scholar eines Tages als Kollegen begrüßen.

9. Es gibt nichtpropositionales Wissen, und das hat in der Praxis enorme Bedeutung.7 Die Konvergenzthese bezieht sich auf Propositionen über solches Wissen, aber nicht auf dieses Wissen selbst.

10. Die Konvergenz des Wissens, um die es hier geht, ist ein empirisches Phänomen. Es bietet eine gewisse Bestätigung für die epistemische Konvergenztheorie. Die Konvergenzthese besagt, dass die Wissensbestände dieser Welt konvergieren, und zwar nicht als Ergebnis diskursiver oder anderer intentionaler Prozesse, sondern kraft evolutionärer Entwicklung. Die Wahrheitsfrage ist nicht das Thema, wiewohl sie sich natürlich nicht verdrängen lässt. In einem sehr verkürzten Sinn wird sie zum bloßen Selektionskriterium der Evolution.

11. Auch Akkumulation wäre eine Form von Konvergenz. Die Idee der Wissensakkumulation ist allerdings spätestens seit Kuhn verpönt. Doch sie kriecht aus verschiedenen Ecken wieder hervor. Der »neue Realismus« könnte zu einer gewissen Rehabilitation führen. Ein skeptischer Realist ist wohl auch Bruno Latour. Latour spricht von objektiviertem Wissen, das durch Referenzketten entsteht.8

12. Konvergenzen von Politiken, technischen Verfahren, wirtschaftlichen und sozialen Strukturen (darunter auch das Recht) sind eine anscheinend augenfällige und viel diskutierte Folge der Globalisierung. Dabei geht es jedoch um Konvergenzen auf der Objektebene, während die Konvergenz des Wissens auf einer Metaebene zu suchen ist. Die Frage wäre also, ob die Aussagen über Konvergenz als Folge der Globalisierung ihrerseits konvergieren. Auch »globale Wissenswelten«9 sind zunächst ein Phänomen auf der Objektebene. Es ist immerhin vorstellbar, dass eine oder mehrere epistemic communities zur Plattform für die Konvergenz des Wissens werden.

13. Die Konvergenz des Wissens ist (als empirisches) ein kognitives Phänomen. Aus der Übereinstimmung des Wissens folgt nicht automatisch die Übereinstimmung des Verhaltens.

14. Deshalb gilt die Konvergenzthese zunächst nur für empirisches Wissen. Dazu zählen auch kognitive Vorstellungen über Sätze mit normativem Gehalt. Solche Sätze bilden einen wesentlichen Bestandteil der Jurisprudenz.

15. Aus der Kenntnis von Begriffskonstruktionen, Konzepten und Normen folgt nicht unmittelbar deren Billigung oder gar Übernahme. Analoges gilt für Wissen über Religion und Kultur.

16. Konvergenz des Wissens bedeutet deshalb nicht auch Konvergenz der Kulturen, sondern nur Konvergenz des Wissens über Kulturen. Allerdings ist das Wissen über Kulturen die Voraussetzung einer Diffusion. Aber über die Annahme von Wissen und Kultur wird nach unterschiedlichen Normen entschieden. Die Konvergenz von Wissen gilt prinzipiell als Anzeichen von Wahrheit und wird deshalb begrüßt. Vielfalt von Kulturen gilt dagegen als Wert und wird deshalb konserviert.

17. In der Rechtsphilosophie gibt es teilweise die Idee, dass »in the long run« auch normative Einstellungen konvergieren. Diese Idee ist nicht Teil der hier ausgebreiteten These.

(Fortsetzung folgt.)

Nachtrag vom 4. 3. 2015:
Die Serie von fünf Einträgen zur Konvergenz des Wissens habe ich zur Vorbereitung für eine Veröffentlichung überarbeitet. Bei Interesse, vielleicht sogar Diskussionsinteresse, übersende ich auf Anforderung (klaus.f.roehl at rub.de) die Datei nach aktuellem Stand.


  1. Umberto Eco, Gesten der Zurückweisung, in: Markus Gabriel (Hg.), Der neue Realismus, 2014, 33-51, S. 36. 

  2. Vielleicht werden es noch mehr, bis der letzte Eintrag zum Thema gemacht ist. 

  3. Ulrich Wengenroth, Zur Einführung: Die reflexive Modernisierung des Wissens, in: ders. (Hg.), Grenzen des Wissens, 2012, 7-22. 

  4. Charles S. Peirce, Schriften II, hgg. v Karl-Otto Apel, 1970, 459. 

  5. Charles S. Peirce, Die Festlegung einer Überzeugung (1877), in: Ekkehard Martens, Texte der Philosophie des Pragmatismus, 1975, S. 79. 

  6. Röhl/Röhl, Allg. Rechtslehre, 3. Aufl. 2008, 83. 

  7. Dazu https://www.rsozblog.de/implizites-wissen/. 

  8. Vgl. das Referat, das ich im Ethnologenblog der Uni Halle gefunden habe. Als Quelle wird das Hörspiel » Kosmokoloss. Eine Tragikomödie über das Klima und den Erdball« angegeben, dass wohl am 6. 12. 2013 in Radio Bayern 2 gelaufen ist. Ich habe mir nicht die Mühe gemacht, die Sendung von 65 Minuten anzuhören. 

  9. Vgl. dazu Nico Stehr, Globale Wissenswelten oder grenzenlose Erkenntnisse, Rechtstheorie 39, 2008, 301-327. 

Related Posts:

Tags: ,

Enzyklopädie zur Rechtsphilosophie (EzR)

Am 8. 4. 2011 wurde in Greifwald als Höhepunkt einer kleinen, aber feinen Tagung der Internetauftritt der Enzyklopädie zur Rechtsphilosophie gestartet, die im Auftrage der Deutschen Sektion der Internationalen Vereinigung für Rechts- und Sozialphilosophie (IVR) von Michael Anderheiden, Marietta Auer, Thomas Gutmann, Stephan Kirste, Frank Saliger und Lorenz Schulz herausgegeben wird. Großes Vorbild ist die Stanford Encyclopedia of Philosophy. Vorerst sind allerdings nur wenige Stichworte mit Artikeln ausgefüllt.
Der Legal McLuhanite hatte mit großen Erwartungen dem Vortrag von Thomas Vesting über »Das Medium Enzyklopädie1 – Rechtliche Expertise unter Buchdruckbedingungen und in elektronischen Netzwerken« entgegengesehen. Er war am Ende ein wenig enttäuscht, denn Vesting sparte die Enzyklopädie im elektronischen Zeitalter aus. Stattdessen berichtete er aus seinem großen Projekt »Medien des Rechts« über die Veränderungen des Rechts unter dem Einfluss des Medienwandels. Dem Legal McLuhanite kam das alles, von der Derridaisierung einmal abgesehen, doch schon sehr bekannt vor. Es gab immerhin ein paar hübsche Literaturfunde und außerdem den Hinweis auf zwei neue Bücher des Redners, die soeben im Verlag Velbrück Wissenschaft erschienen sind.2
Ich habe dem Vortrag die These entnommen, dass das Buch sich durch einen »Sinn für Abgeschlossenheit« auszeichnet, während der Computer zu fortgesetztem Überschreiben auffordert. »Enzyklopädischer Einheitswille« erzeuge die ontologische Illusion innerer Einheit des Rechts, die es in der operativen Wirklichkeit nie gegeben habe, die mindestens aber an den Nationalstaat gebunden gewesen sei. Mit der Computerkultur sei die »Zeit der Systeme« abgeschlossen. Es gebe immer nur vorübergehende Interpretationen von Wahrheit und Gerechtigkeit. Und natürlich brauchen wir dafür »eine adäquate Neugründung der Rechtstheorie«. Ich bin skeptisch. Ich halte den Computer, oder vielmehr das weltweite Netzwerk von Computern, für eine große Konvergenzmaschine. Mehr oder weniger alles wird verglichen, und Konsonanzen wirken verstärkend, bis sich die Spreu vom Weizen trennt.
Was den Ruf nach einer neuen Rechtstheorie betrifft, so tönt der nun schon seit dem Anbruch der Postmoderne.3
Doch alle rufen und keiner liefert. Genauer: Geliefert wird nur Theorie aus der Beobachterperspektive, mit der die Akteure im System wenig anfangen können. Das zeigt sich besonders in der Methodenlehre, die mein Thema auf der Veranstaltung war. Sie ist nun seit über 50 Jahren, seit den Anfängen bei Viehweg und Esser, Gegenstand so heftiger und eigentlich vernichtender Kritik, dass sie in der Versenkung verschwunden sei müsste. Aber keiner der Kritiker liefert einen brauchbaren4 Gegenentwurf. Das war noch einmal 50 Jahre früher anders. Da hatte jedenfalls Philipp Heck gezeigt, wie es gehen könnte. Aber heute gedeihen weiter die alten Blumen. Die Reihe von Lehr- und Lernbüchern zur Methodenlehre ist in den letzten Jahrzehnten ständig angewachsen ist. In anderen Werken, die vornehmlich für die juristische Ausbildung bestimmt sind, findet man selbständige Kapitel zur Methodenlehre5. Sie decken das große Bedürfnis nach Reflexion und Vergewisserung für einen zentralen praxiszugewandten Bereich der juristischen Arbeit und zeigen zugleich Vertrauen in die Lehr- und Lernbarkeit der juristischen Methode.
Nachtrag vom 19. April 2011: Der »Kommentar« (unten) ist nur ein Verweis auf den Blog Viajura von Hans Jagow. Dort meint der Autor:

Sieht alles ganz nett aus, mich stört nur irgendwie die Joomla-Umsetzung, die mir eher in die Zeit um 2004 passt, als zu 2011. Vielleicht wird sie technisch noch überarbeitet, aber in der Wissenschaft zählt Webdesign ja nicht allzu viel.

Ich muss gestehen, dass ich diesen Kommentar nicht ganz unberechtigt finde. Wie man kreativ mit der WordPress-Blogsoftware ein ansehnliches Design für eine Internetenzyklopädie schaffen kann, zeigt das Beispiel der Internet Encyclopedia of Philosophy (IEP). Auch inhaltlich scheint mir diese Internetenzyklopädie, die anscheinend im Schatten von Stanford steht, beachtlich. Zur »Philosophy of Law« gibt es immerhin zehn Artikel, zur politischen Philosophie 35, darunter viele Personenartikel, die auch für die Rechtsphilosophie einschlägig sind. Unter den Herausgebern und den Verfassern der Artikel habe ich bisher keine Bekannten gefunden. Aber das muss kein Fehler sein.


  1. Ist die Enzyklopädie ein Medium? 

  2. »Die Medien des Rechts: Sprache« sowie »Die Medien des Rechts: Schrift«. Wer sich schnell einen Eindruck verschaffen will, findet von Vesting in Ancilla Juris 2010 den Aufsatz »Rechtstheorie als Medientheorie (Supplement I) – Überlegungen zur Notwendigkeit der Verknüpfung von Sprachtheorie und Medientheorie«. 

  3. Die Postmoderne dauert nun schon so lange, dass sie eigentlich vorüber sein müsste. Wie nennen wir denn unser gegenwärtiges Zeitalter? Bis mir etwas Besseres begegnet, spreche ich einmal von Popomo (Postpostmoderne.)  

  4. Mancher wir hier auf das Werk von Friedrich Müller/Ralph Christensen (Juristische Methodik: Grundlegung für die Arbeitsmethoden der Rechtspraxis,) verweisen, dass 2009 in 10. Auflage erschienen ist. Beide Autoren haben sich als Kritiker der konventionellen Methodenlehre profiliert. Ich bewundere ihr großes Werk. Aber ich bezweifle, dass es praktisch brauchbar ist. Die Brauchbarkeit leidet schon durch die (nicht nur) wegen der ungewöhnlichen Zählweise ungenießbare Gliederung. Sie leidet weiter durch die Einführung neuer oder die Umdeutung alter Begriffe, die nicht zuletzt wegen der relativ alltagsnahen Wortwahl mehrdeutig bleiben. Und sie leidet unter Redundanz und Eigenlob. Für das letztlich doch konventionelle Ergebnis erscheint der enorme Aufwand überzogen. Für die »Rechtsarbeit« braucht man am Ende doch wieder, wenn auch mit manchen Caveats, die alten Methoden. 

  5. Zuletzt Heiko Sauer, Juristische Methodenlehre, in: Julian Krüper (Hg.), Grundlagen des Rechts, 2011, 168-186. 

Related Posts:

Tags: , , , , , ,

Neue Beiträge

Zurück zur Homepage von Prof. Röhl