Eine Konvergenztheorie des Wissens (4. Fortsetzung)

Gründe 66-80
Das Internet als Konvergenzmaschine

66. Das Internet steht hier als Kürzel für alle Möglichkeiten der elektronischen Dateinspeicherung und Verarbeitung. Für den Konvergenzeffekt wichtiger als das Jedermann-Internet sind vermutlich elektronische Zeitschriften und andere professionelle Datenbanken, die zwar in der Regel über das Internet erreicht werden, aber keinen freien Zugang anbieten.

67. »Medial gespeichertes und kommuniziertes Wissen gibt es in enormer Quantität, aber von sehr unterschiedlicher Qualität. Die Wissenschaften, aber auch Philosophie, Staat oder Religion haben sich über Jahrhunderte bemüht, Ordnung in das aufbewahrte Wissen zu bringen – mit unterschiedlichen Ansprüchen und unterschiedlichem Erfolg. Qualitätssicherung kann durch religiöse, politische oder rechtliche Entscheidung erfolgen. Das Gesetz ist im Prozeß der Rechtsprechung zu interpretieren, aber es darf von dieser nicht mißachtet werden. Das ist eine politische Entscheidung. Inkonsistenzen der Bibel sind als Emanationen des göttlichen Willens hinzunehmen. Das ist eine theologische Entscheidung. In den Wissenschaften gibt es andere entwickelte Mechanismen der Qualitätssicherung, etwa durch klare Abgrenzung des Geltungsbereichs aufgestellter Behauptungen, durch die Angabe intersubjektiv überprüfbarer Entscheidungsverfahren oder durch prüfbare Nachweise. Trotzdem ist auch die Wissenschaft nicht frei von Bedingtheiten und Befangenheiten. Kulturelle Traditionen und Rücksichten, der paradigmatische Kontext wissenschaftlicher Arbeit und wissenschaftlichen Denkens oder die Fixierung zulässiger Methoden bilden neben den auch vorhandenen, autoritären Aspekten wissenschaftlicher Schulen Schranken für eine globale, zeitlich unbeschränkte Gültigkeit wissenschaftlichen Wissens. Betrachten wir den Stand der Qualitätssicherung in den unterschiedlichen Medien, so können wir angesichts ihrer Resultate letztlich nur resignieren. Es mag in einzelnen wissenschaftlichen oder rechtlich abgesicherten Bereichen gelungen sein, Wissen nach Qualitätsstandards aufzubereiten, eine allgemein akzeptierte, interkulturelle Qualitätssicherung des Wissens gibt es jedoch nicht. Und selbst in den scheinbar gesicherten Arealen der Wissenschaft herrscht ein munterer Pluralismus, der neben Sympathie und wechselseitiger Hilfe auch Abneigung, Mißgunst und Boshaftigkeit kennt, also Emotionen, die der Qualitätssicherung gelegentlich im Wege stehen.« [1]Wolfgang Coy, turing@galaxis.comII, in: ders./Martin Warnke (Hg.), HyperKult, 2005, 15-32, S. 17f. Im Netz als Vortragsmanuskript von 1997 unter dem Titel »Überall & gleichzeitig. Informatik, … Continue reading

68. Konvergenz ist keine Garantie für Qualität, wird aber mangels Alternative zum Qualitätsersatz.

69. Das Internet erzeugt im Unterschied zu dem spontan, methodisch oder im Diskurs erreichten Konsens Konvergenz durch Akkumulierung.

70. Die traditionelle Konvergenzmaschine war die Synopse. Sie war und ist leistungsfähig, bleibt aber doch in der Regel das Werk einzelner Autoren und hängt insofern an deren Kompetenzen und Kapazitäten. Das Internet macht Konvergenzen und – weniger effektiv – Divergenzen ohne (viel) subjektive Wissensarbeit kenntlich.

71. Im »Web of Science« zeigen und verstärken sich die Konvergenzen durch Zitationsanalysen und andere bibliometrische Daten wie Impact Factor und Hirsch-Index.

72. »Hypertextsysteme erscheinen als eine Möglichkeit, intertextuelle Bezüge, die bis dahin latent waren, in manifeste Bezüge – in Links eben – zu überführen und damit Strukturen nachzuzeichnen, die quer zu den linearen Syntagmen die verschiedenen Texte immer schon verbinden.« [2]Hartmut Winkler, Docuverse, 1997, S. 43f. Diese Möglichkeit hängt nicht davon ab, ob es möglich sein wird Hypertext-Maschinen zu programmieren [3]Dazu kritisch Winkler a. a. O. S. 44ff.

73. Ein Schritt zur Konvergenz liegt in der Anonymisierung des Wissens, das heißt, in seiner Ablösung von Autoren und Autoritäten. [4]Zur Bedeutung der Autorschaft bei wissenschaftlichen Texten vgl. Felix Steiner, Dargestellte Autorschaft, Autorkonzept und Autorsubjekt in wissenschaftlichen Texten, 2009. Das Netz trägt mindestens auf dreierlei Weise zur Anonymisierung bei, nämlich erstens durch die Schwierigkeiten einer schulgerechten Zitation [5]Eine schulgerechte Zitation von wissenschaftlichen Texten hat wohl grundsätzlich zwei Ziele. Das erste und wichtigere ist die Vermeidung von und der Schutz vor Urheberrechtsverletzungen und … Continue reading, zweitens durch die Fülle der Texte, die den eigentlichen Urheber oft nicht mehr erkennen lässt [6]Das zeigt das Beispiel der Wissenskugel oben bei Nr. 20., und drittens natürlich durch unbekümmertes Copy and Paste.

74. Weiter in Richtung Konvergenz wirkt das zunehmende Desinteresse an der Genese von Wissen, das durch die Kombination von Informationsflut und Medienbeschleunigung getrieben wird. Damit gehen vielfältige Divergenzen etwa verschiedener Textversionen bestimmter Autoren, an denen sich die Wissenschaft abarbeitet, verloren.

75. »Na klar stimmt das, ich hab’s aus dem Netz«. [7]Überschrift von Stefan Weber in der FAZ Nr. 104 vom 6. 5. 2009 S. N3. Vgl. dazu den Eintrag vom 14. 4. 2010. Gemeint ist damit die Autorität des Netzes als Wissensquelle. So wie das gedruckte Buch hat auch das Netz per se Autorität, die auf alle darin auffindbaren Propositionen durchschlägt. Diese Autorität tritt aber mehr und mehr in den Hintergrund, erstens weil es inzwischen zum Allgemeinwissen gehört, dass im Internet viel Unsinn zu finden ist, und zweitens, weil das Internet zu fast jeder Frage nicht bloß eine, sondern mehrere Antworten herausgibt. Von den Antworten sind viele irrelevant, oft zeigt sich Übereinstimmung, nicht selten auch Divergenz.

76. Das Anwortspektrum des Internet ist von der Suchstrategie des Nutzers abhängig. Wie trennt man die Spreu vom Weizen? Von Pirolli und Card stammt die Theorie der optimalen Futter- bzw. Informationssuche (Information Foraging). [8]Peter Pirolli/Stuart K. Card, Information Foraging, Psychological Review 106, 1999, 643-675; Peter Pirolli, Information Foraging Theory. An Adaptive Interaction with Information, Oxford University … Continue reading Dazu bieten die Informationswissenschaften Theorien und empirische Forschung, die vielleicht weiter helfen. [9]Z. B. Yvonne Kammerer, Separating the Wheat from the Chaff: The Role of Evaluation Instructions. User Characteristics, and the Search Interface in Evaluating Information Quality During Web Search, … Continue reading

77. Die Technik der Internetsuchmaschinen führt zu einer Positivauslese, weil häufiger angeklickte Webseiten einen besseren Rang erhalten und so bei weiteren Suchvorgängen bevorzugt angeboten werden.

78. Technisch gehen in Datenbanken keine abweichenden Inhalte verloren. Grundsätzlich kann alles wiedergewonnen werden. Praktisch gibt es aber auch eine Negativauslese, mit der Folge, dass selten nachgefragte Webseiten bei den Suchmaschinen zurückgestellt werden, bis sie niemand mehr nachschlägt.

79. Medienumbrüche führen zu einer »natürlichen« Auslese. Gedruckt wurde nur noch, was relevant und zutreffend erschien. Auch die Dauerarchivierung von Büchern durch Digitalisierung bringt Verluste. Nach der Digitalisierung sieht es auf den ersten Blick anders aus. Aber die digitalen Medien veralten. Sie müssen im Abstand von etwa einem Jahrzehnt umkopiert werden, um lesbar zu bleiben. Dabei wird wiederum bewusst oder unbewusst eine Auswahl getroffen.

80. Inzwischen sind viele, wenn nicht die meisten wissenschaftlichen Bücher eingescannt und bei Google Books aufrufbar. Zwar gibt es immer nur Bruchstücke des Buches zu lesen. Die Suchfunktion durchsucht jedoch auch die nicht abrufbaren Seiten und zeigt die Stichwörter dann mit einem kurzen Kontext auf dem Bildschirm an. Sie findet oft mehr Stichwörter als im Stichwortverzeichnis angegeben. [10]Von dieser Möglichkeit habe ich in dem Eintrag vom 20. 11. 2014 (bei Fußnote 21 und 25) Gebrauch gemacht. Im Register des »Handbuchs Wissenssoziologie« kommt »Konvergenz« nicht vor. Google … Continue reading

Print Friendly, PDF & Email

Anmerkungen

Anmerkungen
1 Wolfgang Coy, turing@galaxis.comII, in: ders./Martin Warnke (Hg.), HyperKult, 2005, 15-32, S. 17f. Im Netz als Vortragsmanuskript von 1997 unter dem Titel »Überall & gleichzeitig. Informatik, Digitale Medien und die Zukunft des Wissens«.
2 Hartmut Winkler, Docuverse, 1997, S. 43f.
3 Dazu kritisch Winkler a. a. O. S. 44ff.
4 Zur Bedeutung der Autorschaft bei wissenschaftlichen Texten vgl. Felix Steiner, Dargestellte Autorschaft, Autorkonzept und Autorsubjekt in wissenschaftlichen Texten, 2009.
5 Eine schulgerechte Zitation von wissenschaftlichen Texten hat wohl grundsätzlich zwei Ziele. Das erste und wichtigere ist die Vermeidung von und der Schutz vor Urheberrechtsverletzungen und Plagiaten. Das andere Ziel ist die Kenntlichmachung der Genealogie von Ideen. Darauf verweist der Quellenbegriff. Für beide Ziele ist es mehr oder weniger notwendig, dass die Zitation das Zitat reproduzierbar macht. Die Reproduzierbarkeit hängt allerdings nicht allein von der Zitation, sondern auch vom Medium ab. Texte in Büchern und Zeitschriften sind relativ stabil, Texte im Internet dagegen sind relativ änderbar und flüchtig. Dagegen soll angeblich die Angabe des Abrufdatums helfen, tut sie aber nicht. Technische Mittel wie die Internetdienste Webcite oder Internet Archive sind unpraktisch und auch nicht verlässlich. Das Medium regiert auch die äußere Gestalt der Zitation. Bücher und Zeitschriften sind mit den üblichen Zitierweisen dank des ausgefeilten Katalogsystems erstaunlich gut auffindbar. In der Regel wird bei der Zitation zuviel des Guten getan. Erscheinungsort und Verlag, sind, jedenfalls bei inländischen Büchern, überflüssig, ähnlich bei Zeitschriften die Angabe des Jahrgangs. Das beweist ihr weitgehendes Fehlen dieser Angaben in den Nachweisen der juristischen Literatur. Verlags- und Jahrgangsangaben sind daher vor allem ein Indiz für die Qualität der Quelle. Übervollständige Zitationen dienen vielen Autoren vielleicht auch dazu, die Sorgfalt ihrer Arbeitsweise zu demonstrieren. Sie belasten dagegen die Lesbarkeit und Ästhetik des Textes. Das gilt verstärkt für die URL von Internettexten. In Internettexten selbst werden die URL von Internetquellen das vielfach als Hyperlink versteckt. Bisher gibt es keine praktikable Möglichkeit, Hyperlinks unmittelbar aus gedruckten Quellen aufzurufen. Das Eintippen oder Einscannen der URL ist nicht sehr attraktiv und in der Regel auch überflüssig, weil die Quelle sich einfacher ergugeln lässt. Unter diesen Umständen wird die Kehrseite der Zitationspflicht immer wichtiger, die darin besteht, den Autor vor Plagiatsvorwürfen zu schützen.
6 Das zeigt das Beispiel der Wissenskugel oben bei Nr. 20.
7 Überschrift von Stefan Weber in der FAZ Nr. 104 vom 6. 5. 2009 S. N3. Vgl. dazu den Eintrag vom 14. 4. 2010.
8 Peter Pirolli/Stuart K. Card, Information Foraging, Psychological Review 106, 1999, 643-675; Peter Pirolli, Information Foraging Theory. An Adaptive Interaction with Information, Oxford University Press 2007.
9 Z. B. Yvonne Kammerer, Separating the Wheat from the Chaff: The Role of Evaluation Instructions. User Characteristics, and the Search Interface in Evaluating Information Quality During Web Search, 2011; dies./Peter Gerjets, Quellenbewertungen und Quellenverweise beim Lesen und Zusammenfassen wissenschaftsbezogener Informationen aus multiplen Webseiten, Unterrichtswissenschaft 42, 2014, 7-23.
10 Von dieser Möglichkeit habe ich in dem Eintrag vom 20. 11. 2014 (bei Fußnote 21 und 25) Gebrauch gemacht. Im Register des »Handbuchs Wissenssoziologie« kommt »Konvergenz« nicht vor. Google Books zeigt von diesem Band zwar keine Textseiten, gibt aber auf Nachfrage Auskunft, dass der Begriff auf sechs Seiten des Buches erscheint, zeigt allerdings nur drei von sechs Suchergebnissen (S. 553, 768 und 771.

Ähnliche Themen

Eine Konvergenztheorie des Wissens (3. Fortsetzung)

Gründe 52-65
Wissensrecycling und Redundanz

52. Die zeitgenössische Version eines naiven Fortschrittsglaubens äußert sich in der Rede von einer immer kürzeren Halbwertszeit des Wissens. Doch was veraltet, sind konkrete Fragen, Instrumente zu ihrer Beantwortung und die damit gewonnenen Daten. Das systematische Wissen über die Gesellschaft und ihr Recht zeigt dagegen eine erstaunliche Beständigkeit oder Kontinuität, so dass auch heute noch nicht nur Philosophen, sondern auch manche Rechts- und Sozialwissenschaftler mit Platon und Aristoteles diskutieren, als seien sie Zeitgenossen. Epochenumbrüche, wie sie von Kuhn als Paradigmenwechsel vorgestellt worden sind, waren nie so radikal, dass sie eine tabula rasa hinterlassen hätten.

53. Wissensrecycling: Das vorhandene Wissen wird etwa alle dreißig Jahre recycelt, ohne als Neuauflage erkennbar zu sein. Die zurzeit so beliebte Jagd nach Plagiaten wirkt vor diesem Hintergrund eher beckmesserisch. [1]Zygmunt Baumann kokettiert wohl, wenn er (in einem Interview) sagt »Mein Leben besteht darin, Information zu recyceln.« Ich dagegen nehme diese Aussage für mich als bare Münze.

54. Die Warenwelt hat in die Wissenschaft Einzug gehalten. Die Produktion von Literatur ist billig geworden, nachdem Herausgeber und Autoren auch Lektorat und Layout der Texte übernommen haben und von den Verlegern keine Vegütung mehr erhalten. Verlage wie C. H. Beck, Springer, Hart Publishing, Oxford University Press u. a. mehr produzieren laufend schöne und teure neue Bücher, in denen wenig Neues steht. Es traut sich niemand, Literatur, die sich selbst als wissenschaftlich deklariert, für überflüssig zu erklären.

55. Wann immer man liest, die Literatur zu einer bestimmten Frage sei unübersehbar geworden, [2]Z. B. bei bei Andreas Voßkuhle, Expertise und Verwaltung, in: Hans-Heinrich Trute (Hg.), Allgemeines Verwaltungsrecht, 2008, 637-663, S. 639 Fn. 11 zum Wissensmanagement. wird es Zeit die Masse dieser Literatur zu vergesen.

56. Ein Indiz für die Konvergenz des Wissens ist die zunehmende Verwendung von Sekundärliteratur – der ich mich – mindestens in dieser Reihe von Einträgen – anschließe.

57. In den Naturwissenschaften gibt es zum Teil eine Praxis des Reviews, die den Rückgriff auf ältere Texte abschneidet. Dazu werden periodisch an prominenter Stelle zusammenfassende Darstellungen der Forschungsergebnisse veröffentlicht mit der Folge, dass man sich künftig nicht mehr auf die Originalliteratur bezieht. In der Rechtswissenschaft treten an die Stelle solcher Reviews die Kommentare. Für Philosophie und Sozialwissenschaften ist dagegen die Zusammenführung des Wissens kaum institutionalisiert. Immerhin gibt es hier und da eine Diskussion über die Kanonisierung des Wissens. [3]Den Weg zur Kanonisierung bahnen viele Anthologien oder Zusammenfassungen nach Art der »Hauptwerke«-Reihe im Kröner Verlag. Bemerkenswert ist der Eifer, mit dem Austin Sarat sich als »advocate … Continue reading

58. Als Indiz für die Konvergenz des Wissens taugt auch das Phänomen Wikipedia. Hier entsteht Konvergenz durch gemeinschaftliche Textarbeit. »Ein Wiki ist so etwas wie eine Schnapsbrennerei für verschärftes Wissen. Aus Infotrauben, die von verschiedenen Orten und Pflückern zusammengetragen werden, entsteht im Laufe der Zeit ein immer weiter konzentriertes, immer klareres und verfeinertes Destillat. Anders als in Blogs oder Online-Foren, wo Themen einem chronologischen Verlauf folgen, verdichtet sich der Stoff in einem Wiki zunehmend. Aus Daten und Informationen wird Wissen. … Wer zum Wikitum konvertiert, glaubt daran, dass die Welt edierbar ist.« [4]Peter Glaser, Schnapsbrennerei für verschärftes Wissen, Heise-online, 06.04.2012.

59. Im kulturalistischen Jargon redet man nicht von Konvergenz, sondern von kollaborativer Wissenskonstruktion in Netzwerken oder im Wiki. [5]Vgl. das Projekt »Kollaborative Wissenskonstruktion mit Wiki« am Leibniz Institut für Wissensmedien; und daraus Aileen Oeberst/Iassen Halatchliyski/Joachim Kimmerle/Ulrike Cress, Knowledge … Continue reading

60. Es bahnen sich technische Verfahren für die Zusammenführung konsonanter Literatur an. [6]Vgl. Kavita Ganesan/ChengXiang Zhai/Jiawei Han, Opinosis: A Graph Based Approach to Abstractive Summarization of Highly Redundant Opinions, Proceedings of COLING 2010, 340-348. Nachzugehen wäre auch … Continue reading Die Diskussion wird unter dem Stichwort »Digital Humanities« geführt. [7]Überblick über die Aktivitäten weltweit bei Poul Holm/Dominic Scott/Arne Jarrick, Humanities World Report 2015, Kap 4 »The Digital Humanities« … Continue reading

61. Für Juristen gibt es Suchmaschinen die nach Präzedenzfällen suchen. Mit Suchmaschinen, die eigentlich dazu entwickelt wurden, um Plagiate zu entdecken, findet man auch inhaltliche Duplizität. [8]Harold »Skip« Garner, Computerjagd nach Plagiaten, Spektrum der Wissenschaft Dezember 2014, 60-63.

62. Wissenschaftliche Texte beginnen oft mit einem Referat über die Geschichte des behandelten Problems und über bisherige Lösungsvorschläge. Oft folgt dann ein Teil, in dem die vom Autor zugrunde gelegte Methode dargestellt wird. Der historische und der methodische Vorspann sind wegen der Konvergenz der Inhalte besonders anfällig für Plagiate. Bei der Vorstellung seiner Plagiatssoftware schreibt Harold Garner:
»Als probates Gegenmittel bietet sich die Textanalyse an. Sie vermag nicht nur die Unsitte des Plagiierens abzuschaffen, sondern könnte auch völlig neue wissenschaftliche Kommunikationsformen unterstützen.
Eine faszinierende Idee hierzu ist vom Modell des Onlinelexikons Wikipedia inspiriert: Man schafft eine dynamische, elektronische Sammlung von Veröffentlichungen zu einem Thema, die von Wissenschaftlern kontinuierlich redigiert und verbessert wird. Jede neue ›Publikation‹ besteht aus einem Beitrag zu einem einheitlich wachsenden Wissensschatz; redundante Methodenabschnitte werden überflüssig. Das Wikipedia-Modell wäre ein Schritt zu einer zentralen Datenbank, die alle wissenschaftlichen Publikationen in sämtlichen Disziplinen umfasst. Autoren und Redakteure würden mittels Textanalyse die Originalität einer neuen Forschungsarbeit bestätigen …. «

63. Eine individuelle Strategie zur Bewältigung der Textredundanz ist die »offene Patchworkmethode«. Sie besteht darin, Schlüsselstellen des eigenen Textes aus offen ausgewiesenen Zitaten zu bauen. Sie findet ihre Grenzen im Urheberrecht, das den Umfang zulässiger Zitate begrenzt. Die Umfangsbegrenzung gilt jedoch nur für die Entnahme aus einem Text. Es gibt keine Beschränkung für die Anzahl von (Kurz-)Zitaten aus verschiedenen Texten. Daher lässt sich ein neuer Text vollständig aus Fremdzitaten herstellen. Der Extremfall wäre ein Hypertext-Essay nach dem Xanadu-Konzept, der nur aus einer Zusammenstellung von Links bestünde. Zur Charakterisierung juristischer Dissertationen hieß es früher gelegentlich, da werde aus 100 (oder 1000) Quellen ein neuer Text gebastelt.

64. »Distant Reading«: Die Literaturwissenschaft beklagt die Masse der Texte, die niemand mehr lesen kann. Als Ausweg hat Franco Moretti [9]Franco Moretti, Kurven, Karten, Stammbäume, Abstrakte Modelle für die Literaturgeschichte, 2009; ders., Distant Reading 2013. Zu dem neueren Buch – einer Aufsatzsammlung – vgl. die … Continue reading (Stanford Literary Lab) eine Methode des Distant Reading vorgeschlagen. Sie besteht im Prinzip darin, Texte nicht zu lesen, sondern sie mit computergestützten Verfahren sozusagen zu vermessen. [10]Kathryn Schulz, What Is Distant Reading? The New York Times – Sunday Book Review vom 24. 6. … Continue reading Die Vermessung gilt sowohl eher äußerlichen Eigenschaften (Literaturgenre, Stil usw.) als auch den Inhalten (etwa Plots in Romanen oder Argumentationen in Gerichtsurteilen). [11]Zu dem, was Moretti in Gang gebracht hat, vgl. auch den Tagungsbericht von Tobias Haberkorn, Es gibt einfach zu viele Texte, FAZ vom 12. 11. 2014 S. N3.

65. Search Term Reading: Meine Methode des Distanzlesens – die ich vermutlich mit vielen Wissenschaftlern teile – ist das Stichwortlesen (search term reading). Sie besteht schlicht darin, viele Texte nicht Satz für Satz von Anfang bis zum Ende zu lesen, sondern sie auf gerade interessierende Stichworte zu scannen. Früher hatte man dazu mehr oder weniger gute Stichwortregister. Heute liest man viele Texte auf dem Bildschirm. Alle Browser verfügen über eine Suchfunktion. Die meisten Texte werden wohl als PDF gelesen, und selbstverständlich hat auch die dafür übliche Software eine Suchfunktion. Als Bild eingescannte Texte werden dazu in durchsuchbare umgewandelt.

Print Friendly, PDF & Email

Anmerkungen

Anmerkungen
1 Zygmunt Baumann kokettiert wohl, wenn er (in einem Interview) sagt »Mein Leben besteht darin, Information zu recyceln.« Ich dagegen nehme diese Aussage für mich als bare Münze.
2 Z. B. bei bei Andreas Voßkuhle, Expertise und Verwaltung, in: Hans-Heinrich Trute (Hg.), Allgemeines Verwaltungsrecht, 2008, 637-663, S. 639 Fn. 11 zum Wissensmanagement.
3 Den Weg zur Kanonisierung bahnen viele Anthologien oder Zusammenfassungen nach Art der »Hauptwerke«-Reihe im Kröner Verlag. Bemerkenswert ist der Eifer, mit dem Austin Sarat sich als »advocate for disciplinization« für eine Kanonisierung des Faches einsetzt. Zwar spricht er nicht von legal sociology oder sociology of law, sondern von »law and society scholarship«. Aber der Sprachgebrauch in den USA ist eben anders. Schon als Präsident der Law and Society Association hatte Sarat sich für eine »Kanonisierung« des Faches ausgesprochen. Bemerkenswert auch, dass er dafür Juristen (Jack Balkin und Sanford Levinson) zitiert: »Every discipline, because it is a discipline, has a canon, a set of standard texts, approaches, problems, examples, or stories that its members repeatedly employ or invoke, and which help define the discipline as a discipline.«. Seither hat Sarat durch die Herausgabe von zahlreichen Readern und des »The Blackwell Companion to Law and Society« selbst erheblich zur Abgrenzung und Befestigung dieses Kanons beigetragen.
4 Peter Glaser, Schnapsbrennerei für verschärftes Wissen, Heise-online, 06.04.2012.
5 Vgl. das Projekt »Kollaborative Wissenskonstruktion mit Wiki« am Leibniz Institut für Wissensmedien; und daraus Aileen Oeberst/Iassen Halatchliyski/Joachim Kimmerle/Ulrike Cress, Knowledge Construction in Wikipedia: A Systemic-Constructivist Analysis. Journal of the Learning Sciences, 23, 2014, 149-176.
6 Vgl. Kavita Ganesan/ChengXiang Zhai/Jiawei Han, http://sifaka.cs.uiuc.edu/czhai/pub/coling10-opinosis.pdf">Opinosis: A Graph Based Approach to Abstractive Summarization of Highly Redundant Opinions, Proceedings of COLING 2010, 340-348. Nachzugehen wäre auch der Meldung, dass die Fakultät für Informatik und Mathematik der Universität Passau ein Forschungsprojekt CODE zur Extraktion und Visualisierung von Informationen aus wissenschaftlichen Publikationen und dem Web 2.0 gestartet hat [http://idw-online.de/de/news483053].
7 Überblick über die Aktivitäten weltweit bei Poul Holm/Dominic Scott/Arne Jarrick, Humanities World Report 2015, Kap 4 »The Digital Humanities« [http://www.palgraveconnect.com/pc/oa/browse/inside/chapter/9781137500281.0007/9781137500281.0007.html?chapterDoi=9781137500281.0007&focus=pdf-viewer#page=0]. Für Deutschland vgl. die Pressemitteilung der Goethe-Universität Frankfurt a. M. Wie der Computer mit den »Digital Humanities« Einzug in die Geisteswissenschaften hält vom 16. 12. 2014 [http://idw-online.de/de/news618503]. Seit 2007 erscheint die E-Zeitschrift Digital Humanities Quarterly.
8 Harold »Skip« Garner, Computerjagd nach Plagiaten, Spektrum der Wissenschaft Dezember 2014, 60-63.
9 Franco Moretti, Kurven, Karten, Stammbäume, Abstrakte Modelle für die Literaturgeschichte, 2009; ders., Distant Reading 2013. Zu dem neueren Buch – einer Aufsatzsammlung – vgl. die ausführliche Rezension von Shawna Ross, In Praise of Overstating the Case: A Review of Franco Moretti, Distant Reading (London: Verso, 2013, Digital Humanities Quarterly 8/1, 2013.
10 Kathryn Schulz, What Is Distant Reading? The New York Times – Sunday Book Review vom 24. 6. 2011[http://www.nytimes.com/2011/06/26/books/review/the-mechanic-muse-what-is-distant-reading.html?pagewanted=all&_r=0].
11 Zu dem, was Moretti in Gang gebracht hat, vgl. auch den Tagungsbericht von Tobias Haberkorn, Es gibt einfach zu viele Texte, FAZ vom 12. 11. 2014 S. N3.

Ähnliche Themen

Travelling Models IX: Codes und Cödchen und ein Vorreiter des Neuen Realismus

Rottenburgs eigene Zutat zu dem mit der Wanderschaft von Token oder Modellen verbundenen Übersetzungs- bzw. Transformationsprozess ist der »Metacode als Sprache der Übersetzungsketten und Aushandlungszonen« (2002 S. 227, 232). Er soll die Differenz zwischen verschiedenen kulturellen Bezugsrahmen überbrücken, die eine direkte Verständigung oder Übersetzung erschwert, wenn nicht gar verhindert. [1]Diese Lehre hat Rottenburg zuerst im 6. Kapitel der Monographie von 2002, Weit hergeholte Fakten, S. 213 ff) entwickelt und danach mehrfach mit kleinen Variationen wiederholt: Code-Wechsel. Ein … Continue reading

Ein universeller Kontingenzperspektivismus bildet das Fundament der Kulturwissenschaften. Danach ist alles Wissen und damit alles Verstehen perspektivisch. Die Perspektive ist das Produkt der Kultur und deshalb so verschieden wie diese. Eine objektive Perspektive gibt es ebenso wenig wie die eine Wahrheit. Wir müssen mit multiplen Wirklichkeiten leben.

Zu jeder Kultur gehört ein eigener Code (cultural code), der als eine Art Grammatik die Dinge zusammenhält und eine Weltsicht vermittelt. So lautet das Glaubensbekenntnis der Kulturwissenschaften und damit wohl auch der meisten Ethnologen. Zum Code wird alles, was als selbstverständlich, natürlich und unvermeidlich erscheint, wiewohl es doch kontingent ist. Logozentrismus, Objektivismus, Phallogozentrimus, heterosexuelle Matrix, Ethnozentrismus, Eurozentrismus, (methodologischer) Etatismus und Nationalismus und die diversen binären Codes der sozialen Systeme – wir sind von Codes umzingelt.

An der Vorstellung eines kulturellen Codes festzuhalten wird schwierig, wenn man, wie die Kulturwissenschaften im Allgemeinen und wohl auch die Ethnologie, auf die Beschreibung oder auch nur Benennung ganzheitlicher Kulturen verzichtet. Heute sind alle Kulturen Hybride, die sich durch Anwachsung (accretion) laufend verändern (Rottenburg 1996 S. 213). Was anwächst, sind fremde Ideen und Artefakte. Sie diffundieren nicht einfach und werden auch nicht bloß als ein neuer Flicken eingesetzt, sondern sie durchlaufen einen Transformationsprozess. Für das, was dabei herauskommt, sind in der Literatur Kennzeichnung wie Hybridisierung, Kreolisierung, McDonaldisierung oder Glokalisierung geläufig. Solche Begriffe suggerieren eine falsche Einheitlichkeit der Kultur. Das Ergebnis bildet viel eher ein Flickwerk aus oft nur lose zusammenhängenden und manchmal gar widersprüchlich erscheinenden Teilen. Die Folge ist, dass es Kollektiven wie Individuen an einer konsolidierten Weltsicht fehlt. Es gibt nicht den einen kulturellen Code, sondern viele Codes und Cödchen.

»In order to bring an idea into a local cosmos from any part of the outside world, one has to use a cultural code. This presumes the existence of a deep structure which seems to be concealed within the motley and inconsistent patchwork of culture, like grammar in language. … However, and this is the decisive point here, it is not necessary to iinagine this cultural grammar as a uniform and genotypical code that determines the phenotypical surface. There is much to support the assumption that each culture has several mutually contradicting codes which are made available to individual people like alternative repertoires for thought. Each code has a different explanation of how the world is ordered, how you can recognize it, what you can do in it and what meaning results from it all, if any. Because of the contradictory nature of tbe various codes, it is not possible to completely deduce the patchwork of the cultural phenomena from them. The codes themselves are not unalterable either. As a result of these observations, we can only speak of a code – or rather the metacode – of a culture at all because the available choice of repertoires and their tangle of relations somehow differ from one culture to another.« [2]Richard Rottenburg, When Organization Travels: On Intercultural Translation, in: Barbara Czarniawska/Guje Sevón (Hg.), Translating Organizational Change, 1996, 191-2401996 S. 214.

Hier taucht zum ersten Mal der Begriff des Metacodes auf, wird aber noch nicht weiter expliziert.

Das Fehlen einer ganzheitlichen Weltsicht ändert nichts daran, dass bei der Entwicklungszusammenarbeit eben doch unterschiedliche Kulturen aufeinander stoßen oder jedenfalls »unter Bedingungen der Heterogenität« kooperiert werden muss, die »nicht nur im Bereich der Interessen [vorliegt], … sondern auch im Bereich des grundlegenden Orientierungswissens, das auf einer vorbewussten Ebene bereits Festlegungen über Semantik, Plausibilität, Evidenz, Kausalität, Relevanz, Legitimität und Ethos enthält« (2002 S. 232). Die konkreten Probleme, die daraus entstehen, hat Rottenburg in den »Weit hergeholten Fakten« von 2002 ausführlich beschrieben und analysiert. Dabei ging es um ein Projekt zur Reorganisation der Wasserversorgung in drei tansanischen Städten. Man kann diese Analyse als einen Betrag zur (rechtssoziologischen) Steuerungsdiskussion lesen, denn die Entwicklungszusammenarbeit liefere »ohne Zweifel den stärksten Beweis dafür …, dass gesellschaftliche Entwicklung nicht nach Plan gesteuert werden kann.« (2002 S. 218). Das Steuerungszentrum – bei Rottenburg die Entwicklungsbank als »Rechen(schafts)zentrum« — ist auf »Information ohne Deformation zwecks Kontrolle auf Distanz« (S. 224) angewiesen, erhält seine Informationen aber erst aus zweiter, dritter oder gar vierter Hand, und jede »Übergabe« ist mit einer »Transformation bzw. Übersetzung« verbunden. Bei dem Entwicklungsprojekt, dass Rottenburg 2002 thematisiert, war ein zentrales Problem die »Listenautophagie«, das Phänomen nämlich, dass es nicht gelingen wollte, verlässliche Daten über die an die Wasserleitungen angeschlossenen Nutzer und ihren Verbrauch zu gewinnen. Hier macht anscheinend die fehlende Institutionalisierung bürokratischer Routinen, wie sie in Mitteleuropa anzutreffen ist, den Unterschied.

Anke Draude [3]Anke Draude, Der blinde Fleck der Entwicklungstheorie, 2007, S. 71-89. lobt Rottenburgs Buch wegen seiner Analyse der verschiedenen »Codes«, die in der Entwicklungszusammenarbeit verwendet werden, als ein gelungenes Beispiel kulturwissenschaftlich informierten Umgangs mit der »Kontingenzperspektive«. Das ist eine durchaus adäquate Würdigung. Ich habe jedoch – dieses Wortspiel sei erlaubt – eine andere Perspektive auf das Buch. Ich sehe darin und in den nachfolgenden Erläuterungen Rottenburgs zum »Metacode« Vorläufer [4]Maurizio Ferraris und Markus Gabriel, haben es geschafft, den Neuen Realismus zu einem Medienhit zu machen. Sie haben sich vor die Presse gestellt und erklärt, im Jahr 2011, an einem Sommertag, um … Continue reading des Neuen Realismus. [5]Der »neue Realismus« verkündet den Ausstieg aus der Postmoderne. Das Medienereignis zeigt sich im Feuilleton (alles im Internet zugänglich): Die ZEIT hat 2014 eine Serie von sieben Artikeln zum … Continue reading

In den »Weit hergeholten Fakten« spielen die kulturellen Codes nur eine Nebenrolle. Vielmehr wird

»das Stück der Entwicklungszusammenarbeit mit zwei Skripten aufgeführt. Nach den Vorgaben des offiziellen Skriptes (unserem O-Skript) geht es darum, (neben Kapital und Technik) technisches Wissen zu übertragen, das soziokulturell neutral ist und per Training erworben werden kann (›Wie erneuere ich die Wicklung eines Elektromotors? ‹, ›Wie bediene ich die Tabellenkalkulation Excel?‹). Nach den Vorgaben des inoffiziellen Skriptes (unserem I-Skript) geht es hingegen darum, gerade solches Wissen zu übertragen, das die grundlegenden Formen menschlichen Zusammenlebens verändern soll (›Was darf marktwirtschaftlich geregelt werden?‹, ›Wie konstituiert sich politische Legitimität?‹, ›Wie ist der Loyalitätskonflikt zwischen Verwandtschaft und Gemeinwohl zu lösen?‹, ›Was heißt Verfahrensobjektivität?‹)). Bei der Aufführung des Stuckes kann man nun, je nach Situation, mal nach dem einen und mal nach dem anderen Skript spielen.« (2002 S. 2014 f.)

Nach dem O-Skript sind dem Empfänger Kredit, Technik und Know-how für eine »nachholende Modernisierung« zur Verfügung zu stellen. Das I-Skript, nach dem auch Lebensart herübergebracht werden soll, ist »inoffiziell«, weil es nicht dem »postkolonialen Emanzipationsnarrativ« (S. 215) entspricht, das einen souveränen Empfänger mit legitimem und relevantem lokalem Wissen postuliert, der nicht bevormundet werden darf. Alle Beteiligten verstehen und durchschauen das Rollenspiel mehr oder weniger gut mit der Folge, dass sie zur Wahrung ihrer Interessen strategisch zwischen den Skripten wechseln können. Auch die strategischen Absichten werden wechselseitig durchschaut mit der weiteren Folge, dass Misstrauen entsteht (S. 216). Es gibt allerdings noch ein drittes Spiel, in dem Vertrauen aufgebaut werden kann, nämlich das technische Spiel mit der »Leitdifferenz effektiv/ineffektiv« (S. 217). Es beruht

»auf dem naiven Realismus des Alltagsdenkens. Demnach können objektiv richtige Aussagen problemlos zwischen allen möglichen Bezugsrahmen zirkulieren, weil ihre Gültigkeit in der äußeren Realität gründet und folglich von allen Bezugsrahmen unabhängig ist. Das aber heißt, dass universell gültige Aussagen in einer universell gültigen Sprache formuliert sein müssen: in einem Metacode …« (S. 219f.)

Der »Alltagsrealismus« des Technischen Spiels liefert also den Metacode, der partiell eine Verständigung möglich macht.

»In den Aushandlungszonen der Entwicklungskooperation hat sich das Technische Spiel mit seinem Metacode als Handelssprache durchgesetzt.« (S. 234f; ähnlich 2003 167f)

Zur theoretischen Verankerung hebt Rottenburg das Verständigungsproblem auf eine epistemische Metaebene, ein geschickter Schachzug, um nach dem Verlust des Begriffs einheitlicher Kulturen dennoch mit großen Codes arbeiten zu können.

»Zum einen erweist sich das Dilemma der Differenz nur als weiterer Fall eines elementaren Paradoxes: Keine Weltbeschreibung – eben auch keine wissenschaftliche – kann außerhalb ihres Bezugsrahmens Gültigkeit beanspruchen, sofern der Beweis der Gültigkeit den Bezugsrahmen immer schon voraussetzt. Dessen ungeachtet operiert jede Weltbeschreibung mit Differenzen zu anderen Weltbeschreibungen, die sich gar nicht feststellen ließen, würde man nicht einen gemeinsamen, übergeordneten Bezugsrahmen unterstellen. Zum anderen fällt an dem Umgang mit dieser Paradoxie in der Entwicklungskooperation eine aufgeladene Sensitivität gegenüber den Differenzen der Bezugsrahmen auf.« (S. 236)

Dieser Ansatz wird 2003 näher ausgeführt. Rottenburg verzichtet auf den bei postmodernen Autoren verbreiteten (von mir so genannten) fundamentalistischen Antifundamentalismus. [6]Dessen Fehler besteht darin, epistemologische Positionen, die als solche ihre Berechtigung haben mögen, auf die operative Ebene des Umgangs mit der sozialen Wirklichkeit übertragen. Im Übrigen ist … Continue reading Seine

»These besteht nun darin, dass hier insbesondere Letztbegründungen für die Wahrheit von Aussagen bzw. für die Unterscheidung von Fiktion und Wirklichkeit eingeklammert und durch formale Evidenzverfahren ersetzt werden. … Zu diesem Zweck braucht man in erster Linie einen Metacode, der für sich in Anspruch nimmt, jenseits der diversen partikularen Kulturcodes zu stehen und unmittelbar mit der äußeren Wirklichkeit verbunden zu sein. Analog der Handelssprache der Märkte muss dieser Metacode alle unbedingt notwendigen Informationen übermitteln und alle überflüssigen und störenden Wissensbestände zum Verschwinden bringen.
Die pragmatische und provisorische Einigung auf den einen Metacode verschiebt die Aufmerksamkeit von der Frage der korrespondenztheoretischen Gültigkeit einzelner Aussagen, die sich gegenüber einer externen Realität zu bewähren hätten, auf die Frage der Anschlussfähigkeit der Aussagen untereinander. Das Problem externer Referenz wird somit zugunsten des Problems transversaler Referenz in den Hintergrund verschoben. In einer anderen Sprache formuliert: Das Verfahren bekommt Priorität gegenüber der Sache, um die es geht.« (S. 167f)

Ausgangspunkt ist die »Paradoxie« des Letzbegründungsproblems:

»Die Annahme der einen und erreichbaren Wirklichkeit geht mit der Annahme einher, dass es den einen Metacode geben muss, in dem sich die eine Wirklichkeit unverzerrt abbilden lässt. Die Annahme des Metacodes bedeutet wiederum, dass alle übrigen vorfindbaren Codes Kulturcodes sein müssen. Ohne die Unterscheidung zwischen dem einen universellen Metacode und den vielen partikularen Kulturcodes wäre die Annahme der einen Realität nicht aufrecht zu erhalten, denn unterschiedliche Kulturcodes entwerfen unterschiedliche Realitäten. Wer nun aber umgekehrt an der Behauptung multipler Realitäten festhält, ist selbst wieder darauf angewiesen, auf den einen Metacode zu rekurrieren, der die Behauptung der vielen Realitäten überhaupt erst ermöglicht. Damit ist die Aussage also wieder unterlaufen.« (2003 S. 154)

Der Metacode ist »eine Antwort auf die Frage, weshalb man die Annahme der einen Wirklichkeit nicht bestreiten kann, ohne selbst auf diese zurückzugreifen.« Der Ausweg ist ein Als-Ob-Realismus, wie ihn Hans Vaihinger vorgezeichnet hat. Wenn freilich jemand ohne viel Federlesens diese Position einnimmt [7]Wie wir in der Allgemeinen Rechtslehre, 3. Aufl. 2007, S. 139., bleibt das irrelevant. Um Beachtung zu finden, muss man die Lösung elaborieren und ihr durch Einbettung in einen Forschungszusammenhang Autorität verschaffen. Genau das ist Rottenburg gelungen. Seine Elaboration des wissenschaftstheoretischen Problems wird dadurch akzeptabel, dass sie sich gekonnt des kulturwissenschaftlichen Vokabulars bedient. Sie gewinnt an Überzeugungskraft, weil sie nicht auf der grünen Wiese der Theorie gepflückt, sondern in Auseinandersetzung mit einem praktischen Problem gewachsen ist.

In der Wissenschaft stehen sich prinzipiell der »Code der Repräsentation von Wirklichkeit« und der »Code der performativen Hervorbringung« (2003 S. 155.), also Realismus und Konstruktivismus gegenüber.

»Wenn zwei oder mehr Parteien um Problem- und Lösungsdefinitionen streiten, müssen sie sich auf Aussagen verständigen und beschränken, die sie gemeinsam überprüfen können.« [8]S. 155f.

Da es hoffnungslos wäre, zwischen Realismus und Konstruktivismus zu entscheiden, muss eine provisorische Lösung her, die das ausweglose Basisproblem umgeht.

»Das bedeutet, dass sie sich unter Vorbehalt auf Wahrheitskriterien und Realitätsdefinitionen einigen müssen, die sie für den Zweck und die Dauer ihrer Kooperation im Prinzip gelten lassen.« (2003 S. 156.)

Das ist dann der Metacode, der »der Kontroverse über die eine oder die vielen Wirklichkeiten aus dem Weg … gehen« soll (S. 165.). Dieser Metacode verwende einen Als-Ob-Realismus, der sich von dem »echten« Realismus dadurch unterscheidet, dass man immer wieder Anlass nehmen kann, davon abzurücken.

Auch ein bloß provisorischer Realismus kann der Differenz von Sein und Sollen nicht ganz ausweichen. Doch auch dafür gibt es eine undogmatische Lösung, indem die deskriptive und die normative Rede jeweils zum Sprachspiel erklärt werden. (2003 S. 171)

Rottenburg vergleicht den Metacode mit dem, was bei Gericht geschieht.

»Gerichtliche Aushandlungsprozesse lassen diesen allgemeinen Tatbestand besonders deutlich hervortreten: Man streitet vor Gericht zwar um die Wahrheit, doch bei der Austragung des Streits müssen vorher festgelegte Argumentationsmuster befolgt werden, um überhaupt geordnet streiten zu können. … Nicht der unmittelbare Wahrheitsgehalt steht im Vordergrund, sondern formale Kriterien der Gültigkeitsbestimmung von Beweismitteln.« (2003 S. 168; vgl. auch 2012 S. 497).

Wieweit der Vergleich von Metacode und prozessualer Wahrheit [9]Vgl. zu diesem Begriff die schon nicht mehr ganz neue Arbeit von Frauke Stamp, Die Wahrheit im Strafverfahren, Eine Untersuchung zur prozessualen Wahrheit unter besonderer Berücksichtigung der … Continue reading trägt, müsste allerdings noch näher untersucht werden. Zwei Unterschiede fallen sogleich auf. Erstens ist die prozessuale Wahrheit kraft Gesetzes institutionalisiert. Und zweitens teilen nicht nur die meisten Juristen, sondern auch andere Prozessbeteiligte als »perspektivische Objektivisten« die Vorstellung einer materiellen Wahrheit.

Analoges gilt auf der operativen Ebene der Entwicklungszusammenarbeit. Man braucht »einen Metacode, der für sich in Anspruch nimmt, jenseits der diversen partikularen Kulturcodes zu stehen« (S. 167). Der Metacode soll vorläufig und provisorisch die unterschiedlichen kulturellen Codes überbrücken, damit die Wanderschaft von Modellen überhaupt in Gang kommt (S. 214f).

Die Praktiker der Entwicklungshilfe entwickeln eine spezifische Form von Metacode, die sie befähigt, zwischen globalisiertem Wissen, das nach dem Code der Objektivität organisiert ist, und kulturell spezifischem Wissen hin und her zu springen (2012 S. 483). Sie können sich im Hinblick auf ein konkretes Projekt über Kriterien der Objektivität einigen, reflektieren aber gleichzeitig über ihr Tun und können in einem anderen Kontext ganz anders reden (2012 S. 490). Je nach der Aushandlungssituation denken und reden sie so oder so (2012 S. 401). Ähnlich trägt der Metacode im Entwicklungshilfediskurs der Rationalitätsforderung der Geberseite Rechnung, behält sich aber vor, über deren Relativität zu reflektieren.

Dieser Metacode ist also eine Art skeptischer oder vorläufiger Realismus.

Was bleibt an substantiellen kulturellen Codes, die man doch eigentlich in Entwicklungsländern erwartet? Über die » Bedingungen der Heterogenität«, über die vorbewussten »Festlegungen über Semantik, Plausibilität, Evidenz, Kausalität, Relevanz, Legitimität und Ethos« erfahren wir wenig. Rottenburg stimmt nicht in die postkoloniale Kritik »epistemischer Gewalt« [10]Vgl. Sebastian Garbe, Deskolonisierung des Wissens: Zur Kritik der epistemischen Gewalt in der Kultur- und Sozialanthropologie, Austrian Studies in Social Anthropology 1, 2013. ein, durch die nicht-westliche Wissensformen trivialisiert und für ungültig erklärt würden. Er widerspricht vielmehr der Auffassung, in der Entwicklungszusammenarbeit sei »der Code der Objektivität die Tarnmaske für die Hegemonie der ›Geber‹ … [die am Ende] dafür verantwortlich ist, dass lokale Gesichtspunkte nicht zum Zug kommen und die Sache deshalb scheitern muss« [11]2002 S. 213. Lokales Wissen und kultureller Code hindern die Empfänger anscheinend nicht, die westliche Weltsicht kognitiv zu rezipieren, damit strategisch umzugehen und so partikulare Interessen zu verfolgen.

Print Friendly, PDF & Email

Anmerkungen

Anmerkungen
1 Diese Lehre hat Rottenburg zuerst im 6. Kapitel der Monographie von 2002, Weit hergeholte Fakten, S. 213 ff) entwickelt und danach mehrfach mit kleinen Variationen wiederholt: Code-Wechsel. Ein Versuch zur Umgehung der Frage: Gibt es eine oder viele Wirklichkeiten?, in: Matthias Kaufmann (Hg.), Wahn und Wirklichkeit – multiple Realitäten, 2003, 153-174; Code-Switching, or Why a Metacode Is Good to Have, in: Barbara Czarniawska/Guje Sevón (Hg.), Global Ideas, How Ideas, Objects and Practices Travel in the Global Economy, 2005, 259-274; On Juridico-Political Foundations of Meta-Codes, in: Jürgen Renn (Hg.), The Globalization of Knowledge in History, 2012, 483-500. Das ganze Buch unter http://www.edition-open-access.de/studies/1/25/index.html. Die angeführten Arbeiten Rottenburgs werden im Text nur mit Jahr und Seite zitiert.
2 Richard Rottenburg, When Organization Travels: On Intercultural Translation, in: Barbara Czarniawska/Guje Sevón (Hg.), Translating Organizational Change, 1996, 191-2401996 S. 214.
3 Anke Draude, Der blinde Fleck der Entwicklungstheorie, 2007, S. 71-89.
4 Maurizio Ferraris und Markus Gabriel, haben es geschafft, den Neuen Realismus zu einem Medienhit zu machen. Sie haben sich vor die Presse gestellt und erklärt, im Jahr 2011, an einem Sommertag, um 13.30 Uhr in Turin sei es geschehen. Beim gemeinsamen Mahl sei ihnen die Eingebung gekommen, dass das Zeitalter eines neuen Realismus angebrochen sei. Ferraris veröffentlichte 2012 ein »Manifesto del nuovo realismo« und Gabriel landete 2013 den Bestseller »Warum es die Welt nicht gibt«. Beide zusammen veranstalteten 2013 in Bonn eine Tagung zum Thema, bei der es ihnen gelang, einige große Namen der zeitgenössischen Philosophie zu versammeln, allen voran Umberto Eco, Hilary Putnam und John Searle. Die drei genannten und die meisten anderen Teilnehmer hatten sich allerdings schon vor 2011 deutlich von der Postmoderne abgesetzt. Der Frankfurter Philosoph Martin Seel meinte deshalb in der »ZEIT« (vom 3. Juli 2014), es sei schon öfter vorgekommen, dass eine Nachhut sich für die Vorhut hielt.
5 Der »neue Realismus« verkündet den Ausstieg aus der Postmoderne. Das Medienereignis zeigt sich im Feuilleton (alles im Internet zugänglich): Die ZEIT hat 2014 eine Serie von sieben Artikeln zum Thema veröffentlicht, den letzten von dem Philosophen Martin Seel unter dem Titel »Eine Nachhut möchte Vorhut sein«. Der Artikel enthält Links zu den sechs vorausgegangenen. Ferner: Cord Riechelmann, Und sie existiert doch!, FamS vom 26. 10. 2014 [nur im FAZ-Archiv]; Uwe Justus Wenzel, Maurizio Ferraris’ ›Manifest des neuen Realismus‹. Die Postmoderne und die Populisten, NZZ vom 14. 5. 2014; Daniel Boese, Hallo Welt, art. Das Kunstmagazin vom 8. 1. 2014.
Bücher zum »neuen Realismus«: Maurizio Ferraris, Manifesto del nuovo realismo, Rom 2012, deutsch als: Manifest des neuen Realismus, 2014; Markus Gabriel, Warum es die Welt nicht gibt, 2013; ders. (Hg.). Der neue Realismus, 2014. Ferner: Armen Avanessian, Realismus jetzt. Spekulative Philosophie und Metaphysik für das 21. Jahrhundert, 2013; Christoph Riedweg, Nach der Postmoderne, Aktuelle Debatten zu Kunst, Philosophie und Gesellschaft, Basel 2014.
6 Dessen Fehler besteht darin, epistemologische Positionen, die als solche ihre Berechtigung haben mögen, auf die operative Ebene des Umgangs mit der sozialen Wirklichkeit übertragen. Im Übrigen ist an Karl R. Poppers »Myth of the Framework« zu erinnern. Der fundamentalistische Antifundamentalismus führt in ein epistemisches Gefängnis. Dessen Mauern sind – nach Ansicht Poppers – (Karl R. Popper, The Myth of the Framework, in: Eugene Freeman (Hg.), The Abdication of Philosophy: Philosophy and the Public Good; Essays in Honor of Paul Arthur Schilpp, La Salle, Ill. 1976, S. 23-48.) eher aus Papier.
7 Wie wir in der Allgemeinen Rechtslehre, 3. Aufl. 2007, S. 139.
8 S. 155f.
9 Vgl. zu diesem Begriff die schon nicht mehr ganz neue Arbeit von Frauke Stamp, Die Wahrheit im Strafverfahren, Eine Untersuchung zur prozessualen Wahrheit unter besonderer Berücksichtigung der Perspektive des erkennenden Gerichts in der Hauptverhandlung, 1998.
10 Vgl. Sebastian Garbe, Deskolonisierung des Wissens: Zur Kritik der epistemischen Gewalt in der Kultur- und Sozialanthropologie, Austrian Studies in Social Anthropology 1, 2013.
11 2002 S. 213.

Ähnliche Themen

Eine Konvergenztheorie des Wissens (2. Fortsetzung)

Gründe 34-51
Sekundäres und externalisiertes Wissen

34. Die Konvergenzthese bezieht sich nur auf externalisiertes Wissen, das heißt auf solches, das außerhalb des menschlichen Gedächtnisses gespeichert ist.

35. Nur ein kleiner Teil des individuellen Wissens stammt aus erster Hand. Der weitaus größere Teil des Wissens wird von anderen übernommen. Die Masse des Wissens zirkuliert als sekundäres Wissen.

36. Wissenschaftstheorie fragt immer nur danach, wie Wissen mit Wahrheitsanspruch gewonnen werden kann. Zwar verbindet sich mit diesem Anspruch derjenige auf Intersubjektivität. Die intersubjektive Übertragbarkeit von Wissen hängt aber nicht von einer theoretischen Lösung der Wahrheitsfrage ab, sondern ist ein soziales Phänomen.

37. Für die eigene Lebenswelt hat man vielleicht noch den Eindruck, man kenne sie aus eigener Erfahrung. Doch schon der Eindruck täuscht. Schon meinen eigenen Lebenslauf kenne ich zum Teil nur aus Berichten von Eltern und Verwandten. Das Weltwissen dagegen stammt mehr oder weniger vollständig aus sekundären, tertiären oder noch weiter entfernten Quellen. Man lernt es mehr oder weniger planmäßig in Familie und Schule, aus Büchern und anderen Medien oder beiläufig im Umgang mit anderen Menschen. Die Qualität dieses Wissens wird in der Regel gar nicht hinterfragt. Sie ergibt sich unmittelbar aus der sozialen Beziehung zur Wissensquelle.

38. Auch Wissen, das als wissenschaftlich ausgezeichnet ist, ist ganz überwiegend Wissen aus zweiter Hand. Die Wissenschaftlichkeit einer Proposition folgt, ganz gleich welcher Wissenschaftstheorie man folgt, aus der Prozedur seiner Herstellung. Nur wer selbst an dieser Prozedur beteiligt ist, verfügt über Wissen erster Hand. Aber das sind verschwindend wenige. Deshalb kursiert auch wissenschaftlich erzeugtes Wissen grundsätzlich als Wissen aus zweiter Hand. Ein prominentes Beispiel bietet das Milgram-Experiment. Versuchsanordnung und Ergebnisse werden durchgehend zustimmend referiert und gelten beinahe schon als Allgemeinwissen.

39. Für die Qualifizierung von Wissen aus zweiter Hand hat die Wissenschaftstheorie wenig zu bieten. Zu denken ist immerhin an die Methoden zur Erstellung von Metastudien. Alle zusammenfassenden Referate, Übersichtsartikel, Lehrbücher usw. sind der Sache nach (qualitative) Metastudien, die selten oder nie ihre Methodik reflektieren. [1]Everett M. Rogers, der Klassiker der Diffusionstheorie (Diffusion of Innovations, 5. Aufl., New York, NY 2003), von dem in diesem Blog schon mehrfach die Rede war, berief sich in der ersten Auflage … Continue reading Häufiger sind methodische Überlegungen zu quantitativen Metanalysen.

40. Für die Qualifizierung von Wissen aus zweiter Hand lässt sich auch an die Diskussion über die Qualifizierung so genannten Testimonialwissens anknüpfen, die von Oliver R. Scholz in Gang gebracht worden ist. [2]Oliver R. Scholz, Das Zeugnis anderer. Prolegomena zu einer sozialen Erkenntnistheorie, in: Thomas Grundmann (Hg.), Erkenntnistheorie, Positionen zwischen Tradition und Gegenwart, 2001, 354-375 sowie … Continue reading Das Konzept einer sozialen Erkenntnistheorie (Social Epistemology) [3]Zur Orientierung vgl. den Artikel »Social Epistemology« von Alvin Goldman in der Stanford Encyclopedia of Philosophy, 2006. Seit 1987 erscheint eine Zeitschrift »Social Epistemology«, deren Texte … Continue reading betont die soziale Konstituierung und Vernetzung von Wissensbeständen.

41. Subjektive Wissensarbeit hat Konvergenz- und Divergenzeffekte. Auch die (objektive) Zirkulation von Wissen jenseits subjektiver Wissensarbeit bringt Effekte in beiden Richtungen. Die Konvergenzthese besagt natürlich, dass die Konvergenzeffekte überwiegen. Sie macht für die Konvergenzeffekte aber in erster Linie objektive Umstände (Eigenschaften des Wissens, Speichertechniken, Wiedergewinnungsmethoden u. a. mehr) verantwortlich. Daher die Überschrift: das Internet als Konvergenzmaschine.

42. Subjektive Wissensarbeit ist überfordert, wenn es darum geht, den Stand (wissenschaftlicher) Literatur auch nur zu einer einzelnen Proposition repräsentativ zu verarbeiten. Ein wissenschaftlicher Aufsatz zitiert heute im Schnitt vielleicht 20 bis 30 Quellen (und macht daraus 100 Fußnoten). Tatsächlich werden die meisten Themen aber bereits in hunderten oder tausenden von Texten behandelt. Die Nachweise in wissenschaftlichen Abhandlungen sind durchweg nicht annähernd repräsentativ. Niemand kann alles lesen, was etwa zur Abschreckung durch schärfere Sanktionen oder zur Beeinflussung richterlicher Entscheidungen durch die soziale Herkunft, zur Stufenbaulehre Merkls oder zur Drittwirkung der Grundrechte geschrieben worden ist. Das überfordert die menschliche Kapazität und das scheitert konkret auch oft an Disziplingrenzen, an der Verfügbarkeit der Texte und an Sprachproblemen. Ich vermute, dass deshalb sich abzeichnende Konvergenz vielfach verdeckt bleibt. Hinzu kommt – weiterhin vermutlich – eine Tendenz aller Schreiber, Divergenzen zu betonen, sei es weil Konsonanzen langweilig sind, sei es weil sie glauben, sich dadurch besser profilieren zu können.

43. Die Wissenschaftstheorie der Postmoderne scheint der Konvergenzthese wenige Chancen zu geben. Sie sieht sich außerstande, eine konsistente und einvernehmliche Position zu entwickeln, von der aus Wissenselemente als falsch ausgesondert werden können. Sie vertritt vielmehr einen Multiperspektivismus, der statt einer Wahrheit viel Wahres akzeptiert oder gar hervorbringt. Vielleicht ist aber gerade der bewusste Perspektivenwechsel ein Instrument zur Feststellung von Wissenskonvergenz. Was aus unterschiedlichen Perspektiven gleich bleibt, zeigt »aperspektivische Objektivität«.

44. In das Weltwissen ist vieles eingegangen, was einmal Thema wissenschaftlicher Forschung und nicht selten auch umstritten war. Nur ein kleiner Teil des Weltwissens ist explizit als epistemisch verlässlich, das heißt als wissenschaftlich begründet, ausgezeichnet. Doch längst gibt es einen großen Wissensbestand, dessen Herkunft aus der Wissenschaft gar nicht mehr wahrgenommen wird. In solchem Allgemeinwissen hat sich die Konvergenz des Wissens bereits realisiert.

45. Wie Sekundärwissen sich verfestigt, kann man bei der individuellen Informationssuche beobachten. Die Suchmaschine ersetzt oder verdrängt das zweifelnde Fragen und das Ringen um eine eigene Antwort. Wenn immer eine Frage auftaucht, wird nach Lösungen gegugelt. Eine davon muss es sein. Die richtige Antwort schält sich heraus, wenn man die ersten zehn oder vielleicht auch 20 Suchergebnisse auf Plausibilität und Übereinstimmung durchsieht.

46. Suchregeln, Gewichtungsregeln und Stoppregeln werden kaum explizit ausformuliert Aber sie sind implizit doch vorhanden. Drei Filter ergänzen sich, indem sie Quantität, Qualität und Kohärenz der Quellen zusammenfügen.

47. Quantität: In aller Regel gibt man sich mit der ersten Auskunft nicht zufrieden, sondern sucht nach mehreren übereinstimmenden Ergebnissen. Wie viele müssen es sein? Das hängt natürlich auch davon ab, ob es widersprechende Ergebnisse gibt. Juristen sind mit der Vorstellung von herrschender Meinung und Mindermeinung vertraut.

48. Wissenschaftliches Wissen, das aus dem Internet reproduziert wird, hat den Charakter von Lehrmeinungen.

49. »The idea that truth can best be revealed through quantitative models dates back to the development of statistics (and boasts a less-than-benign legacy). And the idea that data is gold waiting to be mined; that all entities (including people) are best understood as nodes in a network; that things are at their clearest when they are least particular, most interchangeable, most aggregated — well, perhaps that is not the theology of the average lit department (yet). But it is surely the theology of the 21st century.« [4]Kathryn Schulz, What Is Distant Reading?, The New York Times – Sunday Book Review vom 24. 6. 2011.

50. Für die Qualität der Quelle gibt es unterschiedliche Anhaltspunkte. Der erste ist Autorität der Autorenschaft. Der zweite ist das Erscheinungsbild der Quelle: Elaboration, Design usw. Wichtig ist schließlich, ob sich Ergebnisse und Begründungen plausibel zusammenfügen. Man könnte von inferentiellem Wissen sprechen.

51. Elaboration verdient besondere Aufmerksamkeit. Psychologen verstehen darunter eine vertiefte Informationsverarbeitung des Individuums durch die Einbettung neuer Information in das Netzwerk des Vorwissens. Hier ist dagegen die Elaboration der Darbietung von Wissen gemeint. Sie beginnt bei einem elaborierten Sprachstil, der sich als »wissenschaflich« zu erkennen gibt. Vor allem aber besteht sie, analog zu der individuellen Elaboration von Wissen, in der Einfügung singulärer Propositionen in einen größeren Zusammenhang. So geschieht es immer wieder in Dissertationen und Habilitationsschriften, dass eine an sich begrenzte These in eine umfangreiche historische Darstellung eingebettet wird, die möglichst alles referiert, was zum Thema gesagt wurde, mag es auch noch so obsolet sein. Kunstgerechte Elaboration »wirkt«, weil der Rezipient den – meistens durchaus zutreffenden – Eindruck gewinnt, hier sei großer Aufwand getrieben worden, um ein Ergebnis zu finden. Der Aufwand dient bis zu einem gewissen Grade als Ersatz für Gründe.

Print Friendly, PDF & Email

Anmerkungen

Anmerkungen
1 Everett M. Rogers, der Klassiker der Diffusionstheorie (Diffusion of Innovations, 5. Aufl., New York, NY 2003), von dem in diesem Blog schon mehrfach die Rede war, berief sich in der ersten Auflage von 1962 auf 506 empirische Untersuchungen. Bis zur fünften Auflage von 2003 hatte sich die Zahl der in Bezug genommenen Untersuchungen auf 5200 reichlich verzehnfacht. De facto handelt es sich hier um eine Metastudie, ohne dass Rogers sich dazu besondere methodische Gedanken gemacht hätte. Greenhalgh u. a. , die ab 2001 im Auftrag des UK Department of Health der Diffusion und Nachhaltigkeit von Innovationen im Gesundheitswesen nachgingen, haben einen Literaturbericht erstellt, der sich auf 1024 Quellen stützt. Die wesentlichen Ergebnisse wurden zunächst 2004 in einem Aufsatz zusammengefasst (Trisha Greenhalgh/Glenn Robert/Fraser Macfarlane/Paul Bate/Olympia Kyriakidou, Diffusion of Innovations in Service Organisations: Systematic Literature Review and Recommendations for Future Research, Milbank Quarterly 82, 2004, 581-629), der vollständige Bericht ist 2005 unter dem gleichen Titel als Buch erschienen. Anders als Rogers haben Greenhalgh u. a. sich mit den methodischen Herausforderungen einer solchen Kompilation befasst (Storylines of Research in Diffusion of Innovation: A Meta-Narrative Approach to Systematic Review, Social Science & Medicine 61, 2005, 417-430.)
2 Oliver R. Scholz, Das Zeugnis anderer. Prolegomena zu einer sozialen Erkenntnistheorie, in: Thomas Grundmann (Hg.), Erkenntnistheorie, Positionen zwischen Tradition und Gegenwart, 2001, 354-375 sowie Bibliographie ebd. S. 391-394; ders., Das Zeugnis der Sinne und das Zeugnis anderer, in: Richard Schantz (Hg.), Wahrnehmung und Wirklichkeit, 2009, 183-209; ders., Das Zeugnis anderer – Sozialer Akt und Erkenntnisquelle, in: Sybille Schmidt/Sybille Krämer/Ramon Voges (Hg.), Politik der Zeugenschaft. Kritik einer Wissenspraxis, 2011, 23-45; Nicola Mößner, Wissen aus dem Zeugnis anderer, 2010.
3 Zur Orientierung vgl. den Artikel »Social Epistemology« von Alvin Goldman in der Stanford Encyclopedia of Philosophy, 2006. Seit 1987 erscheint eine Zeitschrift »Social Epistemology«, deren Texte überwiegend neben meinem Thema liegen.
4 Kathryn Schulz, What Is Distant Reading?, The New York Times – Sunday Book Review vom 24. 6. 2011.

Ähnliche Themen

Social Engineering – da war doch noch was?

Auf SOZBLOG, dem Blog der DGS, finde ich einen Beitrag von Thomas Etzemüller mit der Überschrift »Synthetische Begriffsbildung: social engineering«. Der Beitrag dient dazu, ein Projekt des Bloggers und den daraus resultierenden Sammelband [1]Thomas Etzemüller (Hg.), Die Ordnung der Moderne, Social Engineering im 20. Jahrhundert, 2009. Eine Rezension von Christian Geulen in: H-Soz-Kult, 20.01.2010, <http://www.hsozkult.de/publicationreview/id/rezbuecher-12312>. vorzustellen. Dessen Grundtenor geht wohl dahin, social engineering auf der »darker side of modernity« zu verorten und gelegentlich Verbindungen zu einem totalitären Ordnungsdenken herzustellen. Wie gut, dass auch Alva und Gunnar Myrdal – denen das besondere Interesse Etzemüllers gilt [2]Er hat ihnen eine eigene Monographie gewidmet: Thomas Etzemüller, Die Romantik der Rationalität. Alva & Gunnar Myrdal — Social Engineering in Schweden, transcript, Bielefeld 2010. – als prominente Sozialingenieure ins Visier geraten. Die sind politisch unverdächtig.

Was im Projekt geschah, wird wie folgt beschrieben:

»Wir haben den Begriff weder aus den Quellen entwickelt, weil es ihn da kaum gibt, noch einfach definiert und dann an die Quellen herangetragen. Eher war es eine Art synthetisierendes Verfahren. Wir haben mit Hilfe von Theorien — Ludwik Fleck, Michel Foucault u.a. —, empirischer Studien und an den Quellen Felder, Themen und Akteure identifiziert und auf diese Weise immer mehr umrissen, was social engineering sein könnte und was nicht.«

Was dabei herauskommt, zeigt der Eingangssatz von Etzemüllers Docupedia-Artikel »Social Engineering«. Der Begriff wird so weit gestellt, dass man damit alles oder nichts anfangen kann.

»Social engineering soll als transnationaler, Disziplinen übergreifender Versuch verstanden werden, gegen die vermeintlich zersetzenden Kräfte der industriellen Moderne mit künstlichen Mitteln eine verlorene natürliche Ordnung der Gesellschaft wieder zu erschaffen, indem man eine alle gesellschaftlichen Bereiche durchdringende, vernünftige soziale Ordnung entwarf.«

Social Engineering gehört insofern auf die Seite der Gesellschaft im Gegensatz zur Gemeinschaft im Sinne von Ferdinand Tönnies. [3]Thomas Etzemüller, Social Engineering
als Verhaltenslehre des kühlen Kopfes. Eine einleitende Skizze, in: ders. u. a. (Hg.), Die Ordnung der Moderne, 2009, S. 11-39, S. 30.
Besser hätte man sich die begrifflichen Verrenkungen erspart und einfach von Sozialtechnologie gesprochen. [4]Vgl. dazu die Absteckung des Begriffsfelds durch Roland Müller: http://www.muellerscience.com/SPEZIALITAETEN/Methoden/Sozialtechnologie_Begriffe.htm.

Etzemüller beginnt seinen Blogeintrag entsprechend mit der Aussage, social engineering sei »ein in der Forschung noch nicht definierter Begriff, obwohl er seit dem frühen 20. Jahrhundert vereinzelt durch die Literatur geistert.« Vielleicht hätte er sich doch ein wenig mehr umsehen sollen. Der Begriff des social engineering ist durch Roscoe Pound zu einem Topos der Rechtssoziologie geworden ist. Michael Hochgeschwender [5]The Noblest Philosophy and Its Most Efficient Use: Zur Geschichte des social engineering in den USA, 1910-1965, in: Etzemüller u. a. (Hg.), Die Ordnung der Moderne, 2009, 171-197 schreibt in seinem Beitrag »Zur Geschichte des social engineering in den USA, 1910-1965« an der Rechtssoziologie vorbei. Auf der letzten Seite in der letzten Fußnote beruft er sich immerhin höchst ungenau [6]»Vgl. dazu Podgórecki, Adam/Alexander, Jon/Shields, Rob (Hg.): Social Engineering, Ottawa 1996.« Auf diesen Titel verweist auch Etzemüller in seinem Docupedia-Artikel. auf einen Sammelband, an dem der als Rechtssoziologe bekannte Adam Podgórecki beteiligt war. [7]Nachtrag vom 28. 12. 2014: In diesem Band ist trotz der Beteiligung Podgóreckis von Roscoe Pound und Rechtssoziologie nicht die Rede. Immerhin erwähnt Podgórecki in seinem Beitrag »Sociotechnics: … Continue reading In dem darauf folgenden Beitrag von Carl Marklund [8]Introduction: »Übergriffsgeschichte« and Social Engineering, 199-221. wird Roscoe Pound (auf S. 205) nur als Vertreter des Pragmatismus genannt.

Recht war für Pound nicht Selbstzweck, sondern Mittel zum Zweck, »a means not an end« [9]Pound, The Need of a Sociological Jurisprudence, Green Bag 19, 1907, 607 ff., 614. Für diese instrumentale Auffassung vom Recht prägte er später den Ausdruck social engineering.

»Let us think of jurisprudence for a moment as a science of social engineering, having to do with that part of the whole field which may be achieved by the ordering of human relations through the action of politically organized society«. [10]Interpretations of Legal History, 1923, 152

Pound wies dem Recht die Aufgabe zu, Interessenkonflikte aufzulösen, wie sie im Verlaufe des Sozialprozesses entstehen, dachte aber nicht an die Fixierung letzter Ziele oder an die Ausführung eines Gesamtplans. »Engineering« war daher durchaus im Sinne des piecemeal engineering von Popper gemeint. Aus dieser Sicht stellten Pound und seine Anhänger die Frage nach den spezifischen Vorzügen und Nachteilen von Gesetzgebung und Rechtsprechung für eine interessengerechte Gestaltung der Gesellschaft. Soziologisch ging es ihnen darum, das Recht mit nichtrechtlichen Faktoren, d. h. mit anderen sozialen Erscheinungen, in Verbindung zu bringen. Dieses Bemühen kommt in einer Reihe von griffigen Thesen zum Ausdruck: Gesetze und Urteile haben Folgen für das Sozialleben; sozialer Wandel determiniert die Entwicklung des Rechts; die Effektivität der Rechtsnormen hängt vom Grad der Unterstützung ab, den sie in der öffentlichen Meinung finden, usw. Zu Beginn des 20. Jahrhunderts waren solche Gedanken eher revolutionär. Heute klingt all das eher banal (oder nach Neoinstitutionalismus), so auch der Abschnitt IV in meinem Buch »Das Dilemma der Rechtstatsachenforschung« von 1974 (S. 46-74), der überschrieben war, »Recht als ›Social Engineering‹.« Aber in den 1960er Jahren hattte der Topos vom Sozialingenieur Konjunktur. Dafür stand der Aufsatz von Konrad Zweigert »Vom Rechtsheiligen zum Sozialingenieur« (DIE ZEIT, 21.2.1969 Nr. 08). Später hat Peter Kauffmann [11]Zur Konstruktion des Richterberufs durch Richterleitbilder, 2003; ders., Richterleitbilder heute – eine rechtssoziologische Betrachtung, DRiZ 2008, 194-198. noch einmal darauf zurückgegriffen, als er auf der Grundlage von Textanalysen das Angebot für Richterleitbilder in sieben »Grobkategorien« mit diversen Unterkategorien typisiert: Der Richter als »Rechtsprechungsautomat«, als »Schützer und Helfer«, als »Sozialarbeiter«, als »politischer Richter«, als »Billigkeitsrichter«, als »Dienstleister« und nicht zuletzt als »Sozialingenieur«. Heute ist der Topos eher in Vergessenheit geraten. Das ist aber kein Grund, ihn im Dunklen zu verorten.

Nachtrag vom 4. 3. 2015:
Hier noch einige Fundstücke:
Linus J. McManaman, Social Engineering: The Legal Philosophy of Roscoe Pound, St. John’s Law Review 33, 1958, 1-47.

Das Schweizer Institut für Rechtsvergleichung in Lausanne wird in der Einleitung zu einer zweibändigen Jubiläumspublikation mit dem Titel »Legal Engineering and Comparative Law« (Genf 2009) von der Herausgeberin und Direktorin des Instituts Eleanor Cashin-Ritaine wie folgt vorgestellt:

Lawyers at the Institute have, thus, perfected over the years a specific methodology, essentially in private law, that takes into account all sources of law, and allows for the creation of abstract legal structures that fulfil particular functional and practical purposes. This (re-)engineering of legal concepts and legal sources has given the scientific team in Lausanne a rare technical competence where both the scientific aspects of legal reasoning are taken into account and the complex practical issues are addressed in a pragmatic client-oriented manner. As a result, the phrase “legal engineering in comparative law” seems to describe in a very accurate way the scientific activity of the Swiss Institute of Comparative Law.

Im Internet habe ich aus diesem Band noch gefunden:
J. M. Smits, Legal Engineering in an Age of Globalisation.

Print Friendly, PDF & Email

Anmerkungen

Anmerkungen
1 Thomas Etzemüller (Hg.), Die Ordnung der Moderne, Social Engineering im 20. Jahrhundert, 2009. Eine Rezension von Christian Geulen in: H-Soz-Kult, 20.01.2010, <http://www.hsozkult.de/publicationreview/id/rezbuecher-12312>.
2 Er hat ihnen eine eigene Monographie gewidmet: Thomas Etzemüller, Die Romantik der Rationalität. Alva & Gunnar Myrdal — Social Engineering in Schweden, transcript, Bielefeld 2010.
3 Thomas Etzemüller, Social Engineering
als Verhaltenslehre des kühlen Kopfes. Eine einleitende Skizze, in: ders. u. a. (Hg.), Die Ordnung der Moderne, 2009, S. 11-39, S. 30.
4 Vgl. dazu die Absteckung des Begriffsfelds durch Roland Müller: http://www.muellerscience.com/SPEZIALITAETEN/Methoden/Sozialtechnologie_Begriffe.htm.
5 The Noblest Philosophy and Its Most Efficient Use: Zur Geschichte des social engineering in den USA, 1910-1965, in: Etzemüller u. a. (Hg.), Die Ordnung der Moderne, 2009, 171-197
6 »Vgl. dazu Podgórecki, Adam/Alexander, Jon/Shields, Rob (Hg.): Social Engineering, Ottawa 1996.« Auf diesen Titel verweist auch Etzemüller in seinem Docupedia-Artikel.
7 Nachtrag vom 28. 12. 2014: In diesem Band ist trotz der Beteiligung Podgóreckis von Roscoe Pound und Rechtssoziologie nicht die Rede. Immerhin erwähnt Podgórecki in seinem Beitrag »Sociotechnics: Basic Problems and Issues (S. 23-57) auf S. 24 kurz Leon Petrażycki, der seinerseits als Rechtssoziologe bekannt ist, als den Autor, der erster eine bewusste Definition von Social Engineering als rechtspolitischer Theorie formuliert habe.
8 Introduction: »Übergriffsgeschichte« and Social Engineering, 199-221.
9 Pound, The Need of a Sociological Jurisprudence, Green Bag 19, 1907, 607 ff., 614
10 Interpretations of Legal History, 1923, 152
11 Zur Konstruktion des Richterberufs durch Richterleitbilder, 2003; ders., Richterleitbilder heute – eine rechtssoziologische Betrachtung, DRiZ 2008, 194-198.

Ähnliche Themen

Eine Konvergenztheorie des Wissens (1. Forsetzung)

Gründe 18-33:
»Literaturflut – Informationslawine – Wissensexplosion«. [1]Werner Marx, Literaturflut – Informationslawine – Wissensexplosion. Wächst der Wissenschaft das Wissen über den Kopf?, Forschung 4, 2011, 96-104 (zitiert wird vielfach noch eine ältere … Continue reading

18. Hinter diesen Stichworten steckt nicht unbedingt ein Gegenargument zur Konvergenzthese. Sie verweisen jedoch auf wichtige Zusammenhänge, nämlich erstens auf die These von dem unbegrenzten und unbegrenzbaren Wachstum des Wissens, zweitens auf die Möglichkeiten und Probleme einer Quantifizierung des Wissens und drittens auf Versuche, das anscheinend unbremsbare Wachstum des Wissens zu relativieren.

19. Die These vom unbegrenzten und unbegrenzbaren Wachstum des Wissens schließt an die These vom Unwissen als Kehrseite des Wissens. Letztere stammt angeblich schon von Goethe, der gesagt haben soll »Mit dem Wissen wächst der Zweifel.« Sie ist selbst ein Beispiel für die Konvergenz des Wissens. Die kürzeste Formulierung lautet wohl »Wissen produziert Unwissen.« Etwas ausführlicher: »Je mehr man weiß, desto mehr wächst der bewußte Bereich des Ungewußten.« [2]Beide Formulierungen aus Christoph Engel/Jost Halfmann/Martin Schulte, Wissen – Nichtwissen – unsicheres Wissen, 2002, Vorwort S. 9. Diesen nicht überprüften Nachweis habe ich (ohne die … Continue reading Die These taucht an vielen Stellen auf, ohne dass man auf dieselbe Quelle Bezug nimmt. [3]Z. B. bei Martin Schulte, Eine soziologische Theorie des Rechts, S. 130: »Keine Generierung von Wissen ohne gleichzeitige Generierung von Nichtwissen!« Schulte verweist auf zwei Titel von Klaus … Continue reading

20. Die These vom unbegrenzbaren Wachstum des Wissens wird oft mit Hilfe der Metapher von der Wissenskugel ausgedrückt. »Die Kugel des Gewussten liege im Meer des Ungewussten. Damit ist klar, je mehr wir wissen, desto größer ist der Kontakt der Kugeloberfläche zum Ungewussten.« [4]Rainer Schröder/Angela Klopsch, Der juristische Doktortitel, Humboldt Forum Recht 2012, S. 33, ohne Nachweis. Die Proposition, die dahinter steckt, die Aussage nämlich, dass mit der Zunahme des Wissens der Bereich des Unwissens wächst, ist selbst ein Beispiel für die Konvergenz des Wissens, taucht dieser Gedanke doch an verschiedenen Stellen immer wieder auf. Werner Marx nennt als Erfinder der Wissenskugel ohne Nachweis Hubert Markl, als Fortsetzer Jürgen Mittelstraß und verweist dazu auf einen Radiovortrag von 1992 [5]Von Marx 2011 bei Fn. 4.. Matthias Groß [6]Die Wissensgesellschaft und das Geheimnis um das Nichtwissen, in: Cécile Rol/Christian Papilloud, Soziologie als Möglichkeit, 2009, S. 105. verweist auf einen Aufsatz von Mittelstraß von 1996 [7]Nichtwissen: Preis des Wissens? In: Schweizerische Technische Zeitschrift 93, 1996, 32-35.. Und Mittelstraß nennt sich selbst als Quelle. [8]In dem Internet-Manuskript »Gibt es Grenzen des Wissens?«, 2008. Der Gedanke ist freilich älter. Ich meinerseits habe bereits 1974 [9]Das Dilemma der Rechtstatsachenforschung, S. 39. festgehalten: »Sowie sich der Kreis des Bekannten vergrößert, wird die Peripherie, an der er sich mit dem Unbekannten berührt, immer länger.«, als Quelle von Hayek [10]Friedrich A. von Hayek, Rechtsordnung und Handelsordnung, in: Zur Einheit der Rechts- und Staatswissenschaften, Karlsruhe 1967, S. 195 ff., 205. angegeben und außerdem in der Fußnote Popper [11]Karl R. Popper, On the Sources of Knowledge and of Ignorance, in: Conjectures and Refutations, London 1963, S. 28. zitiert: »The more we learn about the world, and the deeper our learning, the more conscious, specific, and articulate will be our knowledge of what we do not know, our knowledge of ignorance. For this, indeed, is the main source of our ignorance – the fact that our knowledge can only be finite, while our ignorance must necessarily be infinite.« Der Wissenskugel entspricht eine Verstehenskugel: »Jeder Zuwachs an Verstehen ist zugleich ein Zuwachs an Verstehen des Nichtverstehens und damit eine kontinuierliche Unterminierung des Verstehens. Auch die durch das hermeneutische Verfahren zu behebende Ungewißheit ist damit ›Ungewißheit ohne Ende‹, die durch Zunahme von Wissen nie endgültig aufzuheben ist.« [12]Zitat aus Ino Augsberg, Die Lesbarkeit des Rechts, 2009, S. 187, er wiedrum auf Luhmann, Die Religion der Gesellschaft, 2000, S. 47 verweist. Bei Teubner lesen wir: »In der Wissenschaft erzeugt die Forschung immer höhere Ungewissheiten, die nur durch verstärkte Forschung wieder beseitigt werden können, die wiederum neue Ungewissheiten erzeugen.« [13]Verfassungsfragmente, 2012, S. 129, ohne Nachweis.

21. Die Quantifizierung des Wissens fordert eigentlich eine Wissensdefinition und deren Operationalisierung. Hier liegt ein bisher nicht befriedigend gelöstes Problem. Daher wird die quantitative Zunahme des Wissens indirekt gemessen, vor allem durch Zählung von Menschen mit wissenschaftlicher Ausbildung als Wissensproduzenten und von Publikationen als Wissensträger. Konvergenzen lassen sich mit solchen Zählungen nicht erkennen.

22. Die Versuche, die anscheinend unbremsbare Zunahme des Wissens zu relativieren, beginnen bei der Definition des Wissens, und zwar durch die Ausscheidung von Daten und Informationen. Ein weiterer Schritt ist die Qualifizierung des Wissens. Dazu dienen etwa die Messung von Zitierhäufigkeiten und die Ermittlung Veraltungszyklen. Beides könnte, aber muss nicht auf Konvergenz hindeuten. Die Konvergenzthese lässt sich ihrerseits als Versuch der Relativierung der Wissensexplosion verstehen, wiewohl das nicht ihre eigentliche Zielrichtung ist.

23. Die These hinter der Wissenskugel geht stillschweigend davon aus, dass das vorhandene Wissen irgendwie konsolidiert ist und vor allem auch gewusst wird. Die These von der Konvergenz des Wissens interessiert sich kaum für das Unwissen außerhalb der Kugel, sondern sie befasst sich mit der Konsolidierung des Kugelinhalts. Die Konsolidierung (vorhandenen) Wissens setzt voraus, dass das Wissen überhaupt zur Kenntnis genommen wird. Die unzulängliche Konsolidierung von Wissen hat ihre Ursache vielfach nicht in Unwissen, sondern in Unkenntnis des Wissens (ignorance). [14]Andrew Abbott, Varieties of Ignorance, The American Sociologist 41, 2010, 174-189.

24. Die Konvergenz von Wissen lässt sich nur durch Zweitbeobachtung feststellen. Bei der Zweitbeobachtung wird Wissen zu sekundärem Wissen. Oder im kulturalistischen Code: Es geht um Repräsentationen.

25. Wissen ist oft komplex und speziell. Es kann und muss für unterschiedliche Zielgruppen verständlich dargestellt werden. Die Konvergenz verträgt sich mit einer vielfältigen sprachlichen und visuellen Aufbereitung des Wissens.

26. Die Möglichkeiten sprachlicher Variation sind enorm. Originalität wird leicht durch die unterschiedliche sprachliche Darstellung von Wissen vorgetäuscht. Mehr oder weniger alle Aussagen sind mehrfach zu finden. Das bringen die bekannten Redensarten zum Ausdruck: Neuer Wein in alten Schläuchen. – Das Rad wird neu erfunden. – Nichts Neues unter der Sonne. Wer älter ist wie der Verfasser dieses Textes, muss sich vor solchen Redensarten hüten. Fraglos gibt es immer wieder Neues. Aber angesichts der wissenschaftlichen Massenproduktion bleibt es doch erlaubt, auf die Vielzahl der auf den ersten Blick unsichtbaren Übereinstimmungen und die sich darin zeigende Konvergenz des Wissens hinzuweisen.

27. Da Wissen immer durch Zeichen repräsentiert werden muss, ist wegen der Interpretationsfähigkeit insbesondere von Sprachzeichen mit dem Einwand zu rechnen, dass eine eindeutige Feststellung von Konvergenz nicht immer möglich ist. Doch Wissen, dass nicht intersubjektiv transferierbar ist, ist kein wissenschaftliches, sondern bleibt Literatur, Kultur oder Unterhaltung. Wissenschaft gründet auf der Unterstellung, dass das Problem der Interpretationsvarianz für ihren Bereich lösbar ist. Intersubjektive Transmissibilität heißt allerdings nicht Transmissibilität der Akzeptanz einer Proposition, sondern lediglich Möglichkeit des gleichsinnigen Verständnisses.

28. Die Konvergenz des Wissens geht regelmäßig mit einer Trivialisierung einher. Das Wissen der Welt ist in Sprache (und teilweise in Formeln, Bildern und Grafik, die hier vernachlässigt werden) gespeichert. Die Konvergenz zeigt sich erst, wenn ein Wissenselement referiert wird oder referierbar ist. Jedes Referat ist eine »Übersetzung«. Nach der Theorie der kulturellen Übersetzung hat jede Übernahme von Wissen eine Veränderung zur Folge. Prinzipiell ist das wohl richtig. Aber da wird tüchtig übertrieben. Mit der Feststellung von Konvergenz geht allerdings Redundanz verloren, und mit der Redundanz Konnotationen.

29. Ein wichtiger Schritt zur Konvergenz des Wissens ist die Konvergenz von Definitionen. Da jeder frei ist, seinen Gegenstand zu definieren, redet man oft dasselbe aneinander vorbei. Diese Freiheit ist kann und will niemand einschränken. Aber sie lässt sich disziplinieren, indem man sich bemüht, bei einer vorhandenen Definition anknüpfen, die sich anscheinend bewährt hat, um dann – wenn erforderlich – seine Kritik und Abweichungen anzuschließen.

30. In diesem Sinne übernehme ich für die (vorläufige) Festlegung auf einen Wissensbegriff die Definition von Marc Porat [15]The Information Economy. Definition and Measurement, Washington D.C. 1977, S. 2., und zwar auf dem Umweg über Daniel Bell [16]Die nachindustrielle Gesellschaft, 1975, S. 180., weil ich aus ihrer Verwendung durch Bell schließe, dass die Definition mindestens brauchbar ist. Danach bildet Wissen eine »Sammlung in sich geordneter Aussagen über Fakten und Ideen, die ein vernünftiges Urteil oder ein experimentelles Ergebnis zum Ausdruck bringen und anderen durch irgendein Kommunikationsmedium in systematischer Form übermittelt werden.« Grundlage des Wissens bilden Informationen. »Informationen sind Daten, die organisiert und kommuniziert worden sind.«

31. Diese Definition steht im Gegensatz zu dem imperialistischen Wissensbegriff der Kulturwissenschaften, der alle bewussten und unbewussten psychischen Zustände einschließt.

32. Ähnlich relevant wie Definitionen sind wissenschaftliche Fragen. Die Konvergenz von Propositionen setzt eine einheitliche Fragestellung voraus.

33. Statik und Dynamik – Beschreibungen und Erklärungen: Wisenskonvergenz bedeutet kein Ende des sozialen Wandels. Es konvergieren in erster Linie die Erklärungen. Beschreibungen können nur solange konvergieren, wie der beschriebene Zustand bleibt.
(Nr. 20 wurde am 13. 12. ergänzt. Fortsetzung folgt.)

Print Friendly, PDF & Email

Anmerkungen

Anmerkungen
1 Werner Marx, Literaturflut – Informationslawine – Wissensexplosion. Wächst der Wissenschaft das Wissen über den Kopf?, Forschung 4, 2011, 96-104 (zitiert wird vielfach noch eine ältere Internetversion aus dem Jahr 2002 des Artikels von Werner Marx und Gerhard Gramm.)
2 Beide Formulierungen aus Christoph Engel/Jost Halfmann/Martin Schulte, Wissen – Nichtwissen – unsicheres Wissen, 2002, Vorwort S. 9. Diesen nicht überprüften Nachweis habe ich (ohne die Fundstelle zu notieren) von Schmidt-Assmann übernommen.
3 Z. B. bei Martin Schulte, Eine soziologische Theorie des Rechts, S. 130: »Keine Generierung von Wissen ohne gleichzeitige Generierung von Nichtwissen!« Schulte verweist auf zwei Titel von Klaus Peter Japp, darunter: Die Beobachtung von Nichtwissen, Soziale Systeme 3, 1997, 289-312. Andreas Voßkuhle spricht von dem »externen Bereich des Unerforschten« als etwas durch »wissenschaftliches Wissen selbst Konstituiertes« und nennt als Quelle einen Text von Peter Wehling (in: Hans-Heinrich Trute u. a., Allg. Verwaltungsrechts, 2008, S. 653). Peter Wehling ist überhaupt eine gute Quelle für die These vom Unwissen als Kehrseite des Wissens, z. B.: Die Schattenseite der Verwissenschaftlichung. Wissenschaftliches Nichtwissen in der Wissensgesellschaft., in: Stefan Böschen/Ingo Schulz-Schaeffer (Hg.), Wissenschaft in der Wissensgesellschaft, 2003, 119-142, oder ders., Artikel »Wissen und Nichtwissen« in: Rainer Schützeichel, Hg., Handbuch Wissenssoziolgie, 2007, 485-494).
4 Rainer Schröder/Angela Klopsch, Der juristische Doktortitel, Humboldt Forum Recht 2012, S. 33, ohne Nachweis.
5 Von Marx 2011 bei Fn. 4.
6 Die Wissensgesellschaft und das Geheimnis um das Nichtwissen, in: Cécile Rol/Christian Papilloud, Soziologie als Möglichkeit, 2009, S. 105.
7 Nichtwissen: Preis des Wissens? In: Schweizerische Technische Zeitschrift 93, 1996, 32-35.
8 In dem Internet-Manuskript »Gibt es Grenzen des Wissens?«, 2008.
9 Das Dilemma der Rechtstatsachenforschung, S. 39.
10 Friedrich A. von Hayek, Rechtsordnung und Handelsordnung, in: Zur Einheit der Rechts- und Staatswissenschaften, Karlsruhe 1967, S. 195 ff., 205.
11 Karl R. Popper, On the Sources of Knowledge and of Ignorance, in: Conjectures and Refutations, London 1963, S. 28.
12 Zitat aus Ino Augsberg, Die Lesbarkeit des Rechts, 2009, S. 187, er wiedrum auf Luhmann, Die Religion der Gesellschaft, 2000, S. 47 verweist.
13 Verfassungsfragmente, 2012, S. 129, ohne Nachweis.
14 Andrew Abbott, Varieties of Ignorance, The American Sociologist 41, 2010, 174-189.
15 The Information Economy. Definition and Measurement, Washington D.C. 1977, S. 2.
16 Die nachindustrielle Gesellschaft, 1975, S. 180.

Ähnliche Themen

Eine Konvergenztheorie des Wissens

Mir fällt immer stärker auf, dass in vielen Büchern zur Rechtsphilosophie, Rechtstheorie, Methodenlehre und Rechts­soziologie mehr oder weniger dasselbe zu lesen ist. Oft wird Konvergenz nicht wahrgenommen, weil die Autoren unterschiedlichen wissenschaftlichen Schulen, Zitierkartellen usw. angehören, so dass sie gar nicht merken oder merken wollen, wieweit sie in der Sache übereinstimmen. Noch häufiger wird die Konvergenz hinter immer neuen Formulierungen versteckt, sei es, um das Selbstbild des originalen Wissenschaftlers zu wahren, sei es um den Eindruck eines Plagiats zu vermeiden. Für Lehrbücher und Kommentare zum geltenden Recht gilt das erst recht.

Mir fällt weiter auf, wenn ich Texte aus verschiedenen Disziplinen lese, dass sie auf den ersten Blick zwar nichts miteinander zu tun haben, bei näherer Hinsicht jedoch erstaunliche Parallelen aufweisen. Das ist mir zuletzt bei ethnologischen Texten aufge­fallen, die der Sache nach der Diffusion von bestimmten gesellschaftlichen Organisationsformen nachgehen, die sich aber strikt weigern, sich als Diffusionsforschung einzuordnen, und ihre Beobachtung statt dessen in Konzepte von travelling models und kultureller Übersetzung verpacken.

Schließlich fällt mir auf, dass das neue Ideal der Geistes- und Sozialwissenschaften in der erfolgreichen Suche nach Vielfalt zu bestehen scheint, während die Suche nach Konsonanzen oder Übereinstimmungen als langweilig oder gar als diskriminierend gilt. Der »Willkommensgruß des postmodernen Philosophen in Richtung der Vielfalt, des Fragmentierten, Polymorphen und Instabilen« [1]Umberto Eco, Gesten der Zurückweisung, in: Markus Gabriel (Hg.), Der neue Realismus, 2014, 33-51, S. 36. war höchst erfolgreich.

Diese Beobachtungen sind Anlass, drei zunächst grobe Thesen zu formulieren:
– Das Wissen der Welt konvergiert.
– Es lohnt sich, der einst von Peirce formulierten Konvergenztheorie der Wahrheit nachzugehen.
– Das Internet erweist sich als Konvergenzmaschine für das Wissen der Welt.

Die Publikationsform des Blogs bietet Möglichkeit und Versuchung zugleich, unfertige Gedanken vorzuzeigen. Die folgende Begründung ist ebenso grob wie die Thesen. Jeder Absatz könnte und müsste breit ausgearbeitet werden, und vermutlich gibt es zu den darin angesprochenen Fragen schon viele Überlegungen, die – unter anderem mit der Konvergenzmaschine Internet – zu einer Antwort zusammengefügt werden können. Sicher gibt es viele Gegengründe, die ich aber ausblende, um mich zunächst meiner These zu versichern. Auch so ist dieser Notizzettel schon so lang geworden, dass ich ihn auf mehrere Einträge verteile. Ich nummeriere die Notizen durch, weil mir bisher eine systematische Gliederung fehlt.

78 [2]Vielleicht werden es noch mehr, bis der letzte Eintrag zum Thema gemacht ist. Gründe
Teil I: Empirische und epistemische Konvergenztheorien

1. Es geht um Wissen, dass als wissenschaftlich gilt. Für die MINT-Fächer wäre die Konvergenzthese vielleicht kaum der Rede wert, wiewohl auch diese von wissenschaftstheoretischen Skrupeln geplagt werden. [3]Ulrich Wengenroth, Zur Einführung: Die reflexive Modernisierung des Wissens, in: ders. (Hg.), Grenzen des Wissens, 2012, 7-22. Mir geht es um die Geistes- und Sozialwissenschaften.

2. Konvergenztheorien treten entweder als empirische oder als epistemische auf. Empirische Konvergenztheorien behaupten die Konvergenz sozialer Entwicklungen, welcher Art auch immer. Prominent war etwa die Konvergenzthese als Element der Modernisierungstheorie, die besagte, dass kapitalistische und sozialistische Gesellschaftsformen am Ende konvergieren würden. Auch die Modernisierungstheorie selbst ist in ihrer klassischen Version eine Konvergenztheorie. Rechtsvergleicher diskutieren die Konvergenz des Rechts auf Weltebene oder jedenfalls auf Europaebene, auch das primär unter empirischen Aspekten.

3. Demgegenüber stehen epistemische Konvergenztheorien, das heißt solche, die in irgendeiner Weise die Wahrheitsfrage behandeln. Allen modernen Wahrheitstheorien ist die Ablehnung des von ihnen so genannten Fundamentalismus gemeinsam. Gemeint ist damit die Vorstellung, dass wissenschaftliche Erkenntnis auf einem festen Fundament aufbauen könne und müsse, sei es auf dem empirischen Sinnkriterium, sei es auf Vernunft oder auf einer Kombination von beidem. Konsenstheorien der Wahrheit sind jedenfalls insoweit noch fundamentalistisch, als sie darauf abstellen, dass nicht jeder Konsens, sondern nur ein solcher, der durch einen vernünftigen Diskurs gewonnen wird, als Wahrheitsersatz gelten kann.

4. Konvergenztheorien der Wahrheit sind in der Regel Kohärenztheorien. Das heißt, sie stellen darauf ab, dass Sätze nicht isoliert betrachtet werden dürfen, sondern dass menschliches Wissen »holistisch« als Netzwerk zu verstehen sei. Es gewinnt seine Qualität aus der stimmigen Einbettung in einen größeren Zusammenhang. Moderne Konvergenztheorien tragen daher die Sammelbezeichnung »semantischer Holismus«. Analog zur diskursorientierten Konsenstheorie der Wahrheit gibt es auch eine realistisch orientierte Konvergenztheorie der Wahrheit. Sie stammt von Peirce und besagt etwa, dass in einer unendlich entfernten Zukunft Realität und Gedanken über die Realität konvergieren werden. Bis dahin sei alle Erkenntnis fallibel: »Wahrheit ist die Übereinstimmung einer abstrakten Feststellung mit dem idealen Grenzwert, an den unbegrenzte Forschung die wissenschaftliche Überzeugung anzunähern die Tendenz haben würde.« [4]Charles S. Peirce, Schriften II, hgg. v Karl-Otto Apel, 1970, 459. »In the long run«, so lautet die häufig wiederkehrende Formel in den »Collected Papers«. Mit dem Internet und seinen Suchmaschinen ist der weite Weg ein Stück kürzer geworden.

5. Ob die Wahrheitstheorie von Peirce ihrerseits als Korrespondenztheorie oder als Konsenstheorie einzuordnen ist, ist sekundär. Ältere Äußerungen sprechen für eine fundamentalistische Korrespondenztheorie, die eine Entsprechung der Erkenntnis zu einer unabhängigen Realität erwartet, die eben durch die vollständige Konvergenz der Realitätsbeschreibungen angezeigt wird. »Es gibt reale Dinge, deren Eigenschaften völlig unabhängig von unseren Meinungen über sie sind; dieses Reale wirkt auf unsere Sinne nach regelmäßigen Gesetzen ein, und obwohl unsere Sinnesempfindungen so verschieden sind wie unsere Beziehungen zu den Gegenständen, können wir doch, indem wir uns auf die Gesetze der Wahrnehmung stützen, durch schlußfolgerndes Denken mit Sicherheit feststellen, wie die Dinge wirklich und in Wahrheit sind; und jeder, wenn er hinreichende Erfahrung hat und genug darüber nachdenkt, wird zu der einzig wahren Konklusion gerührt werden« [5]Charles S. Peirce, Die Festlegung einer Überzeugung (1877), in: Ekkehard Martens, Texte der Philosophie des Pragmatismus, 1975, S. 79.

6. Wichtiger ist, dass der Wahrheitsbegriff von Peirce nicht nur epistemisch, sondern auch empirisch ist. Er ist epistemisch, weil er Bedingungen angibt, unter denen Sätze, als wahr ausgezeichnet werden können. Und er ist empirisch, weil er die Prognose wagt, dass tatsächlich einmal (»in the long run«) ein Konvergenzzustand erreicht sein könnte.

7. Solche Konvergenz betrifft nur einzelne wissenschaftliche Propositionen. Sie ist zwar hinsichtlich jeder singulären Proposition denkbar. Es ist aber nicht anzunehmen, dass irgendwann einmal alle wissenschaftlichen Sätze durch Konvergenz bestätigt werden – Oder?

8. Für die Auszeichnung als wissenschaftlich verwende ich den institutionellen (oder formellen) Wissenschaftsbegriff. [6]Röhl/Röhl, Allg. Rechtslehre, 3. Aufl. 2008, 83. Das heißt, Wissenschaft definiert sich selbst und ist darauf angewiesen, dass ihre Umgebung diese Definiition akzeptiert. Was immer in den traditionellen Institutionen der Wissenschaft (Universitäten, Forschungsinstitute usw.) produziert wird, wird wie selbstverständlich als wissenschaftlich angenommen. Vielleicht geht die Entwicklung dahin, dass auch durch Datenverarbeitung gewonnene Sätze als wissenschaftlich akzeptiert werden. Dann werden wir Google Scholar eines Tages als Kollegen begrüßen.

9. Es gibt nichtpropositionales Wissen, und das hat in der Praxis enorme Bedeutung. [7]Dazu https://www.rsozblog.de/implizites-wissen/. Die Konvergenzthese bezieht sich auf Propositionen über solches Wissen, aber nicht auf dieses Wissen selbst.

10. Die Konvergenz des Wissens, um die es hier geht, ist ein empirisches Phänomen. Es bietet eine gewisse Bestätigung für die epistemische Konvergenztheorie. Die Konvergenzthese besagt, dass die Wissensbestände dieser Welt konvergieren, und zwar nicht als Ergebnis diskursiver oder anderer intentionaler Prozesse, sondern kraft evolutionärer Entwicklung. Die Wahrheitsfrage ist nicht das Thema, wiewohl sie sich natürlich nicht verdrängen lässt. In einem sehr verkürzten Sinn wird sie zum bloßen Selektionskriterium der Evolution.

11. Auch Akkumulation wäre eine Form von Konvergenz. Die Idee der Wissensakkumulation ist allerdings spätestens seit Kuhn verpönt. Doch sie kriecht aus verschiedenen Ecken wieder hervor. Der »neue Realismus« könnte zu einer gewissen Rehabilitation führen. Ein skeptischer Realist ist wohl auch Bruno Latour. Latour spricht von objektiviertem Wissen, das durch Referenzketten entsteht. [8]Vgl. das Referat, das ich im Ethnologenblog der Uni Halle gefunden habe. Als Quelle wird das Hörspiel » Kosmokoloss. Eine Tragikomödie über das Klima und den Erdball« angegeben, dass wohl am 6. … Continue reading

12. Konvergenzen von Politiken, technischen Verfahren, wirtschaftlichen und sozialen Strukturen (darunter auch das Recht) sind eine anscheinend augenfällige und viel diskutierte Folge der Globalisierung. Dabei geht es jedoch um Konvergenzen auf der Objektebene, während die Konvergenz des Wissens auf einer Metaebene zu suchen ist. Die Frage wäre also, ob die Aussagen über Konvergenz als Folge der Globalisierung ihrerseits konvergieren. Auch »globale Wissenswelten« [9]Vgl. dazu Nico Stehr, Globale Wissenswelten oder grenzenlose Erkenntnisse, Rechtstheorie 39, 2008, 301-327. sind zunächst ein Phänomen auf der Objektebene. Es ist immerhin vorstellbar, dass eine oder mehrere epistemic communities zur Plattform für die Konvergenz des Wissens werden.

13. Die Konvergenz des Wissens ist (als empirisches) ein kognitives Phänomen. Aus der Übereinstimmung des Wissens folgt nicht automatisch die Übereinstimmung des Verhaltens.

14. Deshalb gilt die Konvergenzthese zunächst nur für empirisches Wissen. Dazu zählen auch kognitive Vorstellungen über Sätze mit normativem Gehalt. Solche Sätze bilden einen wesentlichen Bestandteil der Jurisprudenz.

15. Aus der Kenntnis von Begriffskonstruktionen, Konzepten und Normen folgt nicht unmittelbar deren Billigung oder gar Übernahme. Analoges gilt für Wissen über Religion und Kultur.

16. Konvergenz des Wissens bedeutet deshalb nicht auch Konvergenz der Kulturen, sondern nur Konvergenz des Wissens über Kulturen. Allerdings ist das Wissen über Kulturen die Voraussetzung einer Diffusion. Aber über die Annahme von Wissen und Kultur wird nach unterschiedlichen Normen entschieden. Die Konvergenz von Wissen gilt prinzipiell als Anzeichen von Wahrheit und wird deshalb begrüßt. Vielfalt von Kulturen gilt dagegen als Wert und wird deshalb konserviert.

17. In der Rechtsphilosophie gibt es teilweise die Idee, dass »in the long run« auch normative Einstellungen konvergieren. Diese Idee ist nicht Teil der hier ausgebreiteten These.

(Fortsetzung folgt.)

Nachtrag
Die Serie von fünf Einträgen zur Konvergenz des Wissens habe ich zur Vorbereitung für eine Veröffentlichung überarbeitet. Zunächst habe ich darüber auf der Tagung »Die Versprechungen des Rechts – Dritter Kongress der deutschsprachigen Rechtssoziologie-Vereinigungen« in Berlin 2015 vorgetragen. Hier das ungekürzte Vortragsmanuskript.

Print Friendly, PDF & Email

Anmerkungen

Anmerkungen
1 Umberto Eco, Gesten der Zurückweisung, in: Markus Gabriel (Hg.), Der neue Realismus, 2014, 33-51, S. 36.
2 Vielleicht werden es noch mehr, bis der letzte Eintrag zum Thema gemacht ist.
3 Ulrich Wengenroth, Zur Einführung: Die reflexive Modernisierung des Wissens, in: ders. (Hg.), Grenzen des Wissens, 2012, 7-22.
4 Charles S. Peirce, Schriften II, hgg. v Karl-Otto Apel, 1970, 459.
5 Charles S. Peirce, Die Festlegung einer Überzeugung (1877), in: Ekkehard Martens, Texte der Philosophie des Pragmatismus, 1975, S. 79.
6 Röhl/Röhl, Allg. Rechtslehre, 3. Aufl. 2008, 83.
7 Dazu https://www.rsozblog.de/implizites-wissen/.
8 Vgl. das Referat, das ich im Ethnologenblog der Uni Halle gefunden habe. Als Quelle wird das Hörspiel » Kosmokoloss. Eine Tragikomödie über das Klima und den Erdball« angegeben, dass wohl am 6. 12. 2013 in Radio Bayern 2 gelaufen ist. Ich habe mir nicht die Mühe gemacht, die Sendung von 65 Minuten anzuhören.
9 Vgl. dazu Nico Stehr, Globale Wissenswelten oder grenzenlose Erkenntnisse, Rechtstheorie 39, 2008, 301-327.

Ähnliche Themen

Amazons Mechanischer Türke und die Bedeutung der Kosten der Hochzeit für die Dauer der Ehe

Die aktuelle Liste der SSRN Top Downloads der letzten 60 Tage wird angeführt von

Andrew M. Francis/Hugo M. Mialon, ’A Diamond is Forever’ and Other Fairy Tales: The Relationship between Wedding Expenses and Marriage Duration.
22.254 Mal wurde das Paper heruntergeladen. Muss doch interessant sein. Hier die Zusammenfassung:

»In this paper, we evaluate the association between wedding spending and marriage duration using data from a survey of over 3,000 ever-married persons in the United States. Controlling for a number of demographic and relationship characteristics, we find evidence that marriage duration is inversely associated with spending on the engagement ring and wedding ceremony.«

Aber ich habe aus dieser Arbeit noch mehr gelernt, nämlich dass und wie man mit Amazons mechanischem Türken empirische Sozialforschung betreibt. Wirklich neu war das aber wohl nur für mich, dann darüber kann man bereits bei Wikipedia nachlesen: http://en.wikipedia.org/wiki/Amazon_Mechanical_Turk.

Print Friendly, PDF & Email

Ähnliche Themen

Travelling Models VIII: Nun kommt man auch in Frankfurt auf den Trichter.

Die Elefanten laufen immer ein bißchen hinterher. Mit der geballten Kraft von Manpower und Euro hat nun auch das Exzellenzcluster »Normative Orders« an der Universität Frankfurt a. M. den Anschluss an das travelling model der kulturellen Übersetzung geschafft. Dort beginnt am 4. Dezember eine Ringvorlesung unter dem Titel »Kann man Recht übersetzen?«.

Print Friendly, PDF & Email

Ähnliche Themen

Neuer Band zu Eugen Ehrlichs Rechtssoziologie

In der von Stefan Machura und mir im LIT-Verlag herausgegebenen Reihe »Gesellschaft und Recht« ist als Band 8 erschienen:

Knut Papendorf / Stefan Machura / Anne Hellum (Hg.), Eugen Ehrlich’s Sociology of Law. [1]ISBN 978-3-643-90494-2.

Der Band enthält Beiträge von Klaus A. Ziegert, Franz und Keebet von Benda-Beckmann, Hanne Petersen, Olga Livinova, Monika Lindbek, Rustamjon Urinboyev und Måns Svennson sowie von den Herausgebern.

Print Friendly, PDF & Email

Anmerkungen

Anmerkungen
1 ISBN 978-3-643-90494-2.

Ähnliche Themen