Objekterkennung, Kategorisierung und Ähnlichkeit

Das geisteswissenschaftliche Konzept der Begriffsbildung als Abstraktion von singulären Gegenständen impliziert eine bestimmte Theorie über Objekterkennung und Kategorisierung. Solche Theorien werden in der kognitiven Psychologie erörtert und getestet – und sind dort ähnlich umstritten wie viele juristische »Theorien«. Dennoch ist ein Blick in die Kognitionswissenschaften hilfreich, denn man stößt auf Probleme, wie sie ähnlich bei der rechtstheoretischen Erörterung der Analogie auftreten. Dabei gilt es, die Parallelen (oder Analogien?) zwischen menschlichem und maschinellem Lernen[1] im Auge zu behalten.

Waldmann, auf dessen Lehrbuchkapitel ich mich hier weitgehend stütze, spricht hinsichtlich der im vorangehenden Abschnitt angedeuteten (und von mir so genannten) Attributionstheorie von der klassischen Sicht, die bis in die 1960er Jahre dominiert habe.[2] Aus dieser Sicht werden Objekte an Hand definierter Attribute in Kategorien abgespeichert, die als scharf begrenzte Mengen oder Gattungen erscheinen. Insofern handelt es sich um regelbasierte Theorien. Diese Sicht passt gut zu der Vorstellung, dass die Algorithmen der KI entsprechend den Ladungszuständen der Elektronik auf Entweder-Oder-Schaltungen aufbauen. Sie passt ebenso zu der für Juristen naheliegenden Annahme, dass Wissen symbolisch repräsentiert wird. Tatsächlich sind Menschen aber vielfach im Zweifel, welcher Kategorie sie ein Objekt zuordnen sollen. Deshalb hat die Psychologie Theorien entwickelt, die dem Umstand Rechnung tragen sollen, dass die Grenzen zwischen den Kategorien nicht als diskret erscheinen. Es handelt sich um Prototypentheorien und Exemplartheorien.

Nach den Prototypentheorien werden charakteristische Merkmale von einer Vielzahl von Objekten zu Kategorien zusammengefügt, indem von diesen Merkmalen abstrahiert wird. Deshalb werden sie auch Abstraktionstheorien genannt. Die »Kategorisierung wird dann als Ähnlichkeitsvergleich zwischen dem zu kategorisierenden Exemplar und der Prototypenrepräsentation vollzogen.«[3] Der Jurist als Laienpsychologe würde eher annehmen, dass sich der Vorgang umgekehrt abspielt, dass also zuerst Objekte als gleich kategorisiert und hernach die scharfen Grenzen der Kategorie aufgeweicht werden. Wie dem auch sei; in jedem Fall kämpfen die Prototypentheorien mit dem Problem der linearen Trennbarkeit, das heißt mit der Frage, ob eine klare Zuordnung zu dem einen oder anderen Prototyp, sei es mit Hilfe additiver, sei es mit Hilfe gewichteter Merkmalskombinationen, möglich ist. Die Parallele zu den Problemen der juristischen Methodenlehre mit »Typen im Recht und in der Rechtswissenschaft«[4] liegt auf der Hand.

Exemplartheorien gehen davon aus, dass das Gedächtnis über Kategorien von gleichartigen Objekten verfügt, abweichende Exemplare jedoch individuell speichert, um sie dann nach Ähnlichkeit einer Kategorie zuzuordnen. Es fällt dieser Theorie jedoch schwer, die Ähnlichkeitsbeziehung zu operationalisieren. Davon abgesehen dürfte das Gedächtnis durch die Speicherung zahlloser Exemplare bald überfordert sein.

Die drei Basistheorien – Regeltheorie, Prototypentheorie und Exemplartheorie – reichen ohne Zusatzannahmen nicht aus, um das Kategorisierungsproblem zu erklären. Daher redet man von diesen Theorien im Plural. Der Grund wird klar, wenn man die Parallele zum maschinellen Lernen bedenkt. Künstliche Intelligenz ist an der Basis im wahren Sinne digital, weil alle Algorithmen auf dem Entweder-Oder elektrischer Schaltungszustände aufbauen. Vermutlich arbeiten auch die Nervenzellen des Gehirns mit einem digitalen »Maschinencode«. Allerdings bilden die einzelnen Nervenzellen (Neuronen) schon eine höhere Ebene, denn sie antworten nicht auf singuläre Signale, sondern mit einer Schwellenlogik auf addierte und gewichtete Reize. Psychologen beobachten nur die »Hochsprache« des Gehirns, die in neuronalen Netzen[5] programmiert ist, ohne dass sie das Programm selbst kennen. Sie können es nur aus ihren Beobachtungen erschließen.

Künstliche Intelligenz der alten Schule arbeitet wie die Regeltheorie der Psychologen mit kodifizierten Regeln, die auf digitalem Maschinencode aufbauen. In Symbolen ausformulierte Anwenderprogramme definieren Schritt für Schritt, was der Computer rechnen soll. So genannte Compiler übersetzen die Befehle in die Maschinensprache. Schon in den 1980er Jahren, als man sich bei der GMD in Bonn-St. Augustin und später in Saarbrücken traf, um das Datenbanksystem JURIS in Gang zu bringen, war viel von neuronalen Netzen die Rede. Aber erst in den letzten 20 Jahren ist es gelungen, neuronale Netze nachzubauen, die die Arbeit des Gehirns imitieren. Sie können Rohdaten selbständig kategorisieren und Muster oder Regeln erkennen. Auf diesem Wege sind insbesondere Bilderkennung und Sprachverstehen möglich geworden. Verschiedene Schulen maschinellen Lernens verfolgen unterschiedliche Ansätze, die man vermutlich den Prototypentheorien oder den Exemplartheorien zuordnen kann. In jedem Fall werden die Programme anhand großer Mengen von Rohdaten »trainiert«. Die dafür entwickelten Algorithmen sind eine Wissenschaft für sich.[6] Letztlich müssen auch diese Programme in binäre Befehle an die Maschine umgesetzt werden. Aber die erlernten Lösungswege zur Kategorisierung bleiben implizit.

Was folgt daraus für das Analogieproblem in den Geisteswissenschaften im Allgemeinen und in der Jurisprudenz im Besonderen? Wenig. Immerhin wird man dort nach Analogien für die drei Basistheorien der Kategorisierung suchen, um festzustellen, dass die Jurisprudenz von einer Regeltheorie ausgeht, aber damit ihre Probleme nicht wirklich lösen kann und daher ihre Regeltheorie durch Typentheorien und eben auch durch Analogien modifiziert. Für die Exemplartheorien sehe ich vorläufig keine juristische Entsprechung. Umgekehrt habe ich für die juristischen Prinzipientheorien, von denen so viel die Rede ist, in der kognitiven Psychologie noch keine Grundlage gefunden.

[Fortsetzung hier.]


[1] Simon Weitz, Parallelen zwischen dem menschlichen und maschinellen Lernen, 2018, eine im Internet verfügbare Seminarhausarbeit aus Bamberg, referiert gekonnt vor allem das Lehrbuchkapitel von Michael Waldmann.

[2] Michael R. Waldmann, Kategorisierung und Wissenserwerb, in: Jochen Müsseler/Martina Rieger (Hg.), Allgemeine Psychologie, 3. Aufl. 2017, 357-399. Gut verständlich und hilfreich finde ich auch immer wieder die (nicht mehr ganz neue) »Kognitive Psychologie«  von John R. Anderson (3. Aufl. von 2001). Einschlägig ist hier besonders das Kapitel 5 über »Bedeuutungsbezogene Wissensrepräsentation« (S. 139-172).

[3] Waldmann a. a. O. S. 362 li.Sp.

[4] So der Titel von Hans J. Wolff, Studium Generale 5, 1952, 196-XXX.

[5] Eine für Juristen noch verständliche Einführung bietet die Internetseite »Neurale Netzwerke« des IBM Cloud Learn Hub [www.ibm.com/de-de/cloud/learn/neural-networks].

[6] Dazu etwa der Sammelband von Kristian Kersting/Christoph Lampert/Constantin Rothkopf (Hg.), Wie Maschinen lernen. Künstliche Intelligenz verständlich erklärt, 2019.

Ähnliche Themen

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.