Recht muss anthropozentrisch bleiben – oder soll es Menschen künstlicher Intelligenz ausliefern?

Lange drehte sich die Diskussion konventionell um »Chancen und Gefahren« künstlicher Intelligenz. Jetzt nimmt sie eine neue Richtung. Befürchtungen ziehen auf, dass künstliche Intelligenz in die Rolle des Zauberlehrlings wächst oder vielmehr längst gewachsen ist, der sich nicht mehr zurückrufen lässt.

Im Zuge der Industrialisierung haben sich Maschinen in vielen Hinsichten als weitaus leistungsfähiger erwiesen als Muskelarbeit. Das gilt heute als Errungenschaft. Im Zuge der Digitalisierung haben sich Computer menschlichen Fähigkeiten zur Aufnahme von Außenweltreizen, zu Erinnerung, Datenanalyse und Kommunikation als weit überlegen gezeigt. Wir bewundern diese Fähigkeiten als Produkt menschlicher Intelligenz und nehmen sie gerne in Dienst.

Die Verbindung von Maschine und Computer im Automaten oder Roboter hat bisher die Grenze zum Menschen nicht berührt. Es ist anscheinend gar nicht so einfach, den perfekten, menschenähnlichen Roboter zu bauen. Honda hat die Weiterentwicklung seines Roboters Asimo eingestellt. Immerhin, die Roboter haben eine ganze Menge gelernt. Sie können gehen und Treppen steigen. Sie verfügen über Sensoren, die alle menschlichen Sinne imitieren. Sie können zu allerhand Aufgaben abgerichtet werden. Man arbeitet daran, ihnen eine Mimik beizubringen und ihre Kommunikationsfähigkeiten zu verbessern. Auch die neuesten Haus- und Pflegeroboter, wie sie auf der CES 2017 vorgestellt wurden, wirken aber noch harmlos. Auch fahrerlose Autos bleiben Maschinen. Wie sie in Kollisionsfällen »entscheiden«, die der Konstellation des übergesetzlichen Notstands analog sind, ob sie insbesondere dem Schutz der Insassen Vorrang vor dem Schutz anderer Verkehrseilnehmer geben, wird von Menschen programmiert. So lässt sich jedes einzelne Phänomen der Computerisierung bisher als Maschine einordnen. Doch jetzt scheint vieles zusammenzuwachsen und damit neue Qualitäten zu erreichen.

Es schmerzt, das 2016 erschienene Buch von Jay Tuck über künstliche Intelligenz[1] zu lesen, weil es in grauslichem Journalistenjargon geschrieben ist. Aber das Buch hat ein Thema: »Evolution ohne uns.« Künstliche Intelligenz hat nicht nur vielen Hinsichten die menschliche längst übertroffen. Wichtiger noch: Sie entwickelt sich letztlich ungesteuert in einer Weise, die an die Evolution organischen Lebens erinnert. Zunehmend wird künstliche Intelligenz mit den Attributen autonom und selbstlernend verbunden. Es bleibt offen, ob Autonomie oder besser Autopoiese von maschinenähnlichen Einheiten mit materiellem Substrat (autonome Fahrzeuge, Drohnen, Waffen usw.) oder von elektronischen Netzen zu erwarten ist. Noch fehlen Selbstbewusstsein, Subjektivität und schließlich Leben als Auszeichnungen. [2] Doch die Erosion der Menschlichkeit durch künstliche Intelligenz rückt in den Bereich des Möglichen ein.

Soweit bisher schon Stimmen laut wurden, die Computern oder Automaten Rechtspersönlichkeit beilegen wollten[3], ging es nur darum, Haftungsfragen in den Griff zu bekommen. Die Frage nach der Rechtspersönlichkeit von Automaten könnte man als rechtstechnisches Problem abtun, das nach utilitaristischen Gesichtspunkten zu lösen wäre.[4] So wie es zweckmäßig war und ist, bestimmten Organisationen oder Vermögensmassen die Qualität juristischer Personen beizulegen, könnte man auch mit der Automatenfrage umgehen. Aber die Diskussion um Tierrechte und Rechte der Natur zeigt, dass es eben doch nicht nur um ein rechtstechnisches Problem geht, sondern dass naturrechtliche Gedanken Auferstehung feiern. Längst zeigt auch die Auseinandersetzung über den Umgang mit Automaten posthumanistische Töne, etwa in der von Bruno Latour ausgelösten Diskussion[5] um die Handlungsfähigkeit von Sachen. Für Computer hat noch niemand Menschenrechte reklamiert. Doch wenn künstliche Intelligenz sie über die Schwelle zur Autopoiese hebt, werden sie uns selbst mit dieser Forderung konfrontieren.

Viele Wissenschaftler setzen ihren Ehrgeiz darein, Traditionen und Selbstverständlichkeiten als kontingent zu entlarven, und damit tun sie ein gutes Werk der Aufklärung. Eine bekannte Gruppe französischer Philosophen nimmt für sich in Anspruch, all die klassischen »Dichotomien von Geist und Körper, Tier und Mensch, Organismus und Maschine, öffentlich und privat, Natur und Kultur, Männer und Frauen, primitiv und zivilisiert«[6] dekonstruiert zu haben. Doch nichts hindert uns, diese Dichotomien, wenn sie denn brüchig wären, im wahren Sinne des Wortes zu rekonstruieren und sie dadurch vielleicht sogar zu stabilisieren. Wenn es keine Grenze zwischen Mensch und Maschine gibt, muss sie gezogen werden.

Was wir wirklich zu erwarten haben, kann niemand vorhersagen. Aber wenn die Entwicklung auf künstliches Leben zuläuft – das dann nicht mehr »künstlich« wäre –, und wenn wir das nicht wollen, ist Anthropozentrismus unerlässlich, und er muss auch im Recht seinen Niederschlag finden. Das kann geschehen, indem wir den Umgang mit künstlicher Intelligenz als eine Aufgabe der Regulierung begreifen. Regulierung wird von Menschen für Menschen gemacht.[7]

Regulierung betrifft Tätigkeiten, die grundsätzlich erwünscht sind, aber unerwünschte Nebenwirkungen haben.[8] Thema der Regulierung war zunächst die Öffnung der durch netzförmige Infrastruktur entstandenen Monopole und die Erhaltung des Wettbewerbs nach der Privatisierung ehemals öffentlicher Dienstleistungen. Alsbald wurde der Begriff auch für die Regulierung zivilisatorischer Risiken übernommen. »Reguliert« werden die Atomindustrie ebenso wie das Gesundheitswesen oder die Lebensmittelproduktion. Die Regulierung der Digitalisierung konzentriert sich bisher auf die Daten- und Persönlichkeitsschutz einerseits und Netzinfrastruktur andererseits. Begreift man den Umgang des Rechts mit künstlicher Intelligenz als Regulierungsaufgabe, dann ist klar, dass es hier ein technisch-zivilisatorisches Risiko im Interesse der Menschen einzudämmen ist.

Die Regulierung künstlicher Intelligenz ist eine schwierige und herausfordernde Aufgabe.[9] Sie für unmöglich zu halten, wäre eine self-fullfilling prohecy. Das gilt hoffentlich auch umgekehrt.

Nachtrag vom 28. Juni 2017: Der Umgang mit künstlicher Intelligenz war und ist Thema des Deutschen Ethikrats. Informationen auf der Seite http://www.ethikrat.org/veranstaltungen/jahrestagungen/autonome-systeme.

_______________________________

[1] Jay Tuck, Evolution ohne uns. Wird künstliche Intelligenz uns töten?, 2016.

[2] Literaturhinweise bei Horst Eidenmüller, The Rise of Robots and the Law of Humans, 2017, ssrn.com/abstract=2941001.

[3] Andreas Matthias, Automaten als Träger von Rechten, 2010; Jan-Erik Schirmer, Rechtsfähige Roboter?, JZ 2016, 660-666.

[4] Horst Eidenmüller, The Rise of Robots and the Law of Humans, 2017, ssrn.com/abstract=2941001.

[5] Und ihre Rezeption durch Gunther Teubner, Elektronische Agenten und große Menschenaffen: Zur Ausweitung des Akteursstatus in Recht und Politik, ZfRSoz 27, 2006, 5-30.

[6] Aufzählung nach Donna Haraway, Ein Manifest für Cyborgs [1985], S. 8.

[7] So in diesem Zusammenhang Eidenmüller a. a. O. S. 1. Wiewohl bekennender Utilitarist, zitiert Eidenmüller am Ende Goethe: »Nur allein der Mensch vermag das Unmögliche: er unterscheidet, wählet und richtet … «.

[8] Marian Döhler/Kai Wegrich, Regulierung als Konzept und Instrument moderner Staatstätigkeit, Der moderne Staat: Zeitschrift für Public Policy, Recht und Management 3, 2010, 31-52.

[9] Eidenmüller ebd.

Ähnliche Themen

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.