„Hinter diesen Augen sitzt kein Ich“

Wer kennt nicht die Bilder und Szenen, wenn auf Technologiemessen ein begeisterter Mensch dem „süßen“ kleinen Roboter „Pepper“ über den Kopf streicht, ihm wie einem Kind in die „Augen“ schaut, als ob dieses vermeintliche Geschöpf dann dankend zurücklächelt. Der Mensch sucht Interaktion und projiziert Interaktionsfähigkeit auf den mobilen Blechhaufen.

Einem solchen Menschen gab der nachdenkliche Technikethiker Karsten Weber einen ernüchternden Rat mit auf den Weg: „Hinter diesen Augen sitzt kein Ich.“ Mit dieser Äußerung wollte der Wissenschaftler aus Regensburg jenen widersprechen, die in der momentanen Roboterentwicklung schon Maschinen „mit Bewusstsein“ zu erkennen glaubten. Davon sei man mehr als weit entfernt, wenn dieses Ziel überhaupt je erreicht werden könnte.

Die Projektion menschlicher Eigenschaften auf die Maschinen sei unangebracht und falsch. Weder menschenähnliche Roboter noch selbst fahrende Autos besäßen jene „Autonomie“, die es ihnen erlauben würde, selbst ethische bzw. normative Regeln zu setzen. Dies sei und bleibe Aufgabe des Menschen.

Auf einer Tagung zum Thema „Künstliche Intelligenz“ der Integrata-Stiftung und des Tübinger Weltethos-Institutes kritisierte Weber den unverantwortlichen Umgang mit schwerwiegenden moralischen und ethischen Fragen bei der Entwicklung der KI. Die „Anthropomorphisierung von Maschinen“ (Übertragung menschlicher Eigenschaften auf Maschinen) sei ein gravierender Fehlschluss.

Der Technikethiker verwies wissenschaftlich methodisch präzise auf die Erfahrungen mit Technikentwicklungen der letzten Jahrzehnte. Technik sei nie neutral, sie sei immer wertebasiert, wertegebunden und wertebeladen. Dies bedeute, dass bei der Konzipierung technischer Innovationen immer bewusst oder unbewusst normative Überzeugungen, Werte, Vorurteile, Interessen in die Technikentwicklung einfließen. Dies schließe ein, dass immer wieder ein Hinterfragen vorhandener Technik stattfinden müsse, da sich parallel zur Technikentwicklung auch gesellschaftliche Werte und Lebensstile (zum Beispiel Geschlechterrollen) ständig veränderten.

Diese Wertegebundenheit technischer Konzeptionen müsse – so die Diskussion – gerade bei einem besonders empfindlichen Teil der KI, nämlich der Nutzung von „selbstlernenden Software-Systemen“, deutlichere Berücksichtigung finden. Denn auch hier gilt: Hinter diesen Algorithmen sitzt kein Ich.

 

Verengungen im Blick auf die KI

Eine gemeinsam von der Integrata-Stiftung, des Weltethos-Institutes und der Giordano-Bruno-Stiftung organisierte öffentliche Fachtagung zur gesellschaftlichen Bedeutung der Entwicklung von KI (Künstliche Intelligenz) wollte die Gestaltungskompetenz auf Seiten der Bürgerinnen und Bürger stärken.

Dabei verengte sich der Diskurs in Tübingen allerdings auf zwei technische Innovationen – die jenseits von Wirtschafts- und Arbeitswelt verortet wurden. Im Zentrum standen die Potentiale selbst fahrender Autos und selbst laufender Roboter. Im KI-Diskurs gelten diese beiden Anwendungen eher nicht als zentraler Fokus der Herausforderungen. Denn sie sind letztlich nur der Hardware-Schlusspunkt einer ansonsten primär softwaretechnischen Entfaltung.

Einer der wichtigen Schlüssel zur Potentialanalyse der KI liegt – gemäß des Beitrages des Forum Soziale Technikgestaltung – in der Einschätzung und interessensorientierten Beeinflussung „autonomer Software-Systeme“ wie etwa „Watson“ von IBM. Wer gesellschaftspolitisch – zu Recht – Einfluss auf die KI-Entwicklung nehmen will, muss den Blick wechseln: Nicht vom Endgerät (Roboter, Auto, Hardware) wäre zu schauen, also vom „front end“ her, sondern von der Steuerungsebene her, vom „back end“, gilt es sich zu nähern.

Die Kernfrage lautet: Welche gesellschaftlichen und gesellschaftspolitischen Interventionen bereiten den Weg zur Demokratisierung des „back end“? Wie demokratisieren wir die Algorithmen? Dabei wäre die Gestaltung dieser selbstlernenden Software-Systeme in der Arbeitswelt objektiv der zu erwartende Pionierfall. – Dies wäre ein mutiges Thema für die nächste KI-Tagung des Tübinger Dreigestirns.

 

Für eine gesellschaftlich verantwortete Dezentralisierung der Künstlichen Intelligenz

Für eine dezentrale regionalisierte Nutzung kluger KI-Anwendungen und gegen deren Zentralisierung durch Internetgroßkonzerne spricht sich der amerikanische Kritiker Evgeny Morozov aus. Er warnt in einem Interview für die Zeitschrift „Wirtschaftswoche“ (45/2017) vor einer Monopolisierung selbstlernender Software-Systeme in der Hand weniger Eigner von immensen Kapitalsummen und der sich dabei vollziehenden Sammlung riesiger Datenberge, die immer mehr dazu geeignet seien, menschliches Verhalten zu beeinflussen und zu steuern.

Eine Hinwendung zu dezentralen Datenerfassungen und Datensammlungen auf der Ebene von regionalen gemeinschaftlichen und gesellschaftlichen Akteursverbünden könne die Monopolbildung aufhalten. Die Daten dürften nicht dem Silicon Valley gehören. Daten müssten in der Hand der Betroffenen in der Region bleiben.

Morozov sieht jedoch erheblichen Beschleunigungsbedarf bei regionalen Politiken, Parlamenten und der Zivilgesellschaft. Wenn sich die Gegenkraft zur Monopolbildung nicht innerhalb der nächsten fünf bis zehn Jahre durchsetzt, sei der Kampf auf Dauer endgültig verloren. Für Morozov – und nicht nur für ihn – geht es um die Demokratisierung unserer Daten.

Kann ein autonomes Software-System ein drittes Rechtssubjekt in der Mitbestimmung darstellen?

Schon seit vielen Jahr quälen sich Fachleute aus Technik und Recht mit der Frage, ob ein Roboter, ein selbstfahrendes Auto oder ein Software-System im gerichtlichen Sinne ein Rechtssubjekt sein kann. Das bisherige Rechtsdenken gibt auf diese Frage nur zum Teil ausreichende Antworten. Im Zentrum steht stets die Suche nach der Zuordnung: Wer ist für einen Vorgang verantwortlich? Ist es der beauftragende Veranlasser der Technik oder die Technik selbst? Was passiert aber, wenn diese Zuordnung nicht eindeutig zu treffen ist, weil sich das technische System durch seine „Selbstlern“-Fähigkeit in Echtzeitschritten ständig verändert?

Der „Sachverständigenrat für Verbraucherfragen beim Bundesministerium der Justiz und für Verbraucherschutz“ hat im Dezember 2016 in seinem Gutachten „Verbraucherrecht 2.0 – Verbraucher in der digitalen Welt“ das Dilemma benannt: „Schwieriger wird es bei der rechtlichen Beurteilung von selbst-lernenden Algorithmen. Hier geht es letztendlich um die Frage, wie sich künstliche Intelligenz (KI) auf das Rechtssystem auswirkt, ob die Zuordnung des Agenten zum Prinzipal durchbrochen wird, ob der Software-Agent selbst zum autonom handelnden Rechtssubjekt wird oder der Prinzipal, der den selbst-lernenden Algorithmus konfiguriert hat, der Letztverantwortliche bleibt. Mit anderen Worten: wer ist der Prinzipal und wer ist der Agent?“.

Am Horizont der Debatte ist eine Erweiterung der Rechtslage erkennbar. Es ist zu erwarten, dass das Zivilrecht eine qualitative Korrektur in dem Sinne erfährt, dass es neben der „natürlichen Person“ (Bürgerin, Bürger) und der „juristischen Person“ (Unternehmen, Verein, Verband, etc.) auch eine „elektronische Person“ (autonome Systeme) geben wird. Doch wie soll diese definiert werden, wenn „autonome Software-Systeme“ (ASS) als „selbstlernende“ Einheiten sich nach ihrem Start unaufhörlich wandeln und potenziell ihren eigenen Algorithmus umbauen?

Ein unkonventioneller Blick in die Zukunft könnte auch noch eine andere Herausforderung formulieren: Was könnte eine „elektronische Person“ im Prozess der Mitbestimmung bedeuten? Angenommen ein ASS würde als „elektronische Person“ juristisch anerkannt, träte es dann im innerbetrieblichen Mitbestimmungsprozess neben der Unternehmensleitung und dem Betriebsrat als ein dritter „Partner“ an den Verhandlungstisch? Müsste eine „elektronische Person“ im Hinblick auf die Auswirkungen von „autonomen Software-Systemen“ in der betriebsinternen oder betriebsübergreifenden Wertschöpfungskette auch im Betriebsverfassungsgesetz verankert werden? Der Gedanke mag manchen schaudern lassen. Doch ist er nicht in sich logisch und konsequent? Was würde vorausschauende soziale Technikgestaltung in diesem Zusammenhang erfordern?