Neu denken heißt interdisziplinär denken

Die zahlreichen Veranstaltungen zum Thema „Wirtschaft 4.0“, „Industrie 4.0“ oder „Arbeit 4.0“ zeigen in den meisten Fällen eine nicht unerwartete Gemeinsamkeit: Es ist das technikorientierte und oft technikzentrierte Denken. Mehr als dreißig Jahre Technikfolgenforschung und Technikfolgenabschätzung haben dagegen gezeigt, dass es in der Arbeits- und Wirtschaftswelt nichts gibt, das nur aus einem einzigen Blickwinkel heraus erklärbar ist. Diesem monokausalen Denken sollte ein Denken in Ganzheitlichkeit gegenüber gestellt werden. Auch viele gewerkschaftliche Diskurse stellen sich in diesem Sinne als noch zu eng angelegt dar.

Das Bedürfnis von Kolleginnen und Kollegen, etwas konkret Fassbares, etwas sinnlich Greifbares im Zusammenhang mit der digitalen Transformation geschildert zu bekommen, verleitet Vortragende zu einer allzu schnellen Flucht in die Technik. Technikzentriertes Denken aber ist altes Denken. Nicht die Technik stellt den Faktor von Innovationen dar, sondern die nichttechnischen Einflussgrößen entscheiden über Erfolg oder Misserfolg von Technikimplementierungen in Wirtschaft und Arbeitswelt.

Wer neu denken möchte, muss sich öffnen hin zu weiteren Aspekten und Gesichtspunkten des Wandels. Interessengeleitete Technikgestaltung benötigt die Blicke auf soziale Standards, auf Sozialpsychologie, auf Soziologie, auf Bildungswissenschaften, auf Arbeitsmedizin, auf Ethik, auf Gleichberechtigung, auf Demokratie und auf Philosophie. Wer nur über Technik reden kann, hat die Dimension des Wandels nicht verstanden.

Vor diesem Hintergrund ist die jüngste Rede des französischen Präsidenten Emmanuel Macron bemerkenswert. In seinem Statement zur französischen Strategie der verstärkten Entwicklung und Anwendung von „Künstlicher Intelligenz“ (KI) fordert er eine neue Perspektive für den KI-Aufbau. Macron will den interdisziplinären Ansatz als Basis der KI-Entwicklung unter aktiver Einbeziehung von Mathematik, Sozialwissenschaften, Technikwissenschaften und Philosophie.

In seinem Interview mit der Zeitschrift WIRED vom 31. März 2018 erläuterte er: „I want my country to be the place where this new perspective on AI is built, on the basis of interdisciplinarity: this means crossing maths, social sciences, technology, and philosophy. That’s absolutely critical. Because at one point in time, if you don’t frame these innovations from the start, a worst-case scenario will force you to deal with this debate down the line.“ Macron spricht sich für eine ethische und philosophische Gestaltung der KI-Entwicklung aus. D’accord!

Sascha Lobo hat in SPIEGEL Online Recht, wenn er von der Bundesregierung erwartet, sie möge sich an Macron in diesem Punkt ein Beispiel nehmen. Doch auch das baden-württembergische Projekt des „Cyber Valley“ zur KI-Forschung benötigt dringend zumindest eine Macron‘sche Interdisziplinarität.

 

„Hinter diesen Augen sitzt kein Ich“

Wer kennt nicht die Bilder und Szenen, wenn auf Technologiemessen ein begeisterter Mensch dem „süßen“ kleinen Roboter „Pepper“ über den Kopf streicht, ihm wie einem Kind in die „Augen“ schaut, als ob dieses vermeintliche Geschöpf dann dankend zurücklächelt. Der Mensch sucht Interaktion und projiziert Interaktionsfähigkeit auf den mobilen Blechhaufen.

Einem solchen Menschen gab der nachdenkliche Technikethiker Karsten Weber einen ernüchternden Rat mit auf den Weg: „Hinter diesen Augen sitzt kein Ich.“ Mit dieser Äußerung wollte der Wissenschaftler aus Regensburg jenen widersprechen, die in der momentanen Roboterentwicklung schon Maschinen „mit Bewusstsein“ zu erkennen glaubten. Davon sei man mehr als weit entfernt, wenn dieses Ziel überhaupt je erreicht werden könnte.

Die Projektion menschlicher Eigenschaften auf die Maschinen sei unangebracht und falsch. Weder menschenähnliche Roboter noch selbst fahrende Autos besäßen jene „Autonomie“, die es ihnen erlauben würde, selbst ethische bzw. normative Regeln zu setzen. Dies sei und bleibe Aufgabe des Menschen.

Auf einer Tagung zum Thema „Künstliche Intelligenz“ der Integrata-Stiftung und des Tübinger Weltethos-Institutes kritisierte Weber den unverantwortlichen Umgang mit schwerwiegenden moralischen und ethischen Fragen bei der Entwicklung der KI. Die „Anthropomorphisierung von Maschinen“ (Übertragung menschlicher Eigenschaften auf Maschinen) sei ein gravierender Fehlschluss.

Der Technikethiker verwies wissenschaftlich methodisch präzise auf die Erfahrungen mit Technikentwicklungen der letzten Jahrzehnte. Technik sei nie neutral, sie sei immer wertebasiert, wertegebunden und wertebeladen. Dies bedeute, dass bei der Konzipierung technischer Innovationen immer bewusst oder unbewusst normative Überzeugungen, Werte, Vorurteile, Interessen in die Technikentwicklung einfließen. Dies schließe ein, dass immer wieder ein Hinterfragen vorhandener Technik stattfinden müsse, da sich parallel zur Technikentwicklung auch gesellschaftliche Werte und Lebensstile (zum Beispiel Geschlechterrollen) ständig veränderten.

Diese Wertegebundenheit technischer Konzeptionen müsse – so die Diskussion – gerade bei einem besonders empfindlichen Teil der KI, nämlich der Nutzung von „selbstlernenden Software-Systemen“, deutlichere Berücksichtigung finden. Denn auch hier gilt: Hinter diesen Algorithmen sitzt kein Ich.

 

Verengungen im Blick auf die KI

Eine gemeinsam von der Integrata-Stiftung, des Weltethos-Institutes und der Giordano-Bruno-Stiftung organisierte öffentliche Fachtagung zur gesellschaftlichen Bedeutung der Entwicklung von KI (Künstliche Intelligenz) wollte die Gestaltungskompetenz auf Seiten der Bürgerinnen und Bürger stärken.

Dabei verengte sich der Diskurs in Tübingen allerdings auf zwei technische Innovationen – die jenseits von Wirtschafts- und Arbeitswelt verortet wurden. Im Zentrum standen die Potentiale selbst fahrender Autos und selbst laufender Roboter. Im KI-Diskurs gelten diese beiden Anwendungen eher nicht als zentraler Fokus der Herausforderungen. Denn sie sind letztlich nur der Hardware-Schlusspunkt einer ansonsten primär softwaretechnischen Entfaltung.

Einer der wichtigen Schlüssel zur Potentialanalyse der KI liegt – gemäß des Beitrages des Forum Soziale Technikgestaltung – in der Einschätzung und interessensorientierten Beeinflussung „autonomer Software-Systeme“ wie etwa „Watson“ von IBM. Wer gesellschaftspolitisch – zu Recht – Einfluss auf die KI-Entwicklung nehmen will, muss den Blick wechseln: Nicht vom Endgerät (Roboter, Auto, Hardware) wäre zu schauen, also vom „front end“ her, sondern von der Steuerungsebene her, vom „back end“, gilt es sich zu nähern.

Die Kernfrage lautet: Welche gesellschaftlichen und gesellschaftspolitischen Interventionen bereiten den Weg zur Demokratisierung des „back end“? Wie demokratisieren wir die Algorithmen? Dabei wäre die Gestaltung dieser selbstlernenden Software-Systeme in der Arbeitswelt objektiv der zu erwartende Pionierfall. – Dies wäre ein mutiges Thema für die nächste KI-Tagung des Tübinger Dreigestirns.

 

Für eine gesellschaftlich verantwortete Dezentralisierung der Künstlichen Intelligenz

Für eine dezentrale regionalisierte Nutzung kluger KI-Anwendungen und gegen deren Zentralisierung durch Internetgroßkonzerne spricht sich der amerikanische Kritiker Evgeny Morozov aus. Er warnt in einem Interview für die Zeitschrift „Wirtschaftswoche“ (45/2017) vor einer Monopolisierung selbstlernender Software-Systeme in der Hand weniger Eigner von immensen Kapitalsummen und der sich dabei vollziehenden Sammlung riesiger Datenberge, die immer mehr dazu geeignet seien, menschliches Verhalten zu beeinflussen und zu steuern.

Eine Hinwendung zu dezentralen Datenerfassungen und Datensammlungen auf der Ebene von regionalen gemeinschaftlichen und gesellschaftlichen Akteursverbünden könne die Monopolbildung aufhalten. Die Daten dürften nicht dem Silicon Valley gehören. Daten müssten in der Hand der Betroffenen in der Region bleiben.

Morozov sieht jedoch erheblichen Beschleunigungsbedarf bei regionalen Politiken, Parlamenten und der Zivilgesellschaft. Wenn sich die Gegenkraft zur Monopolbildung nicht innerhalb der nächsten fünf bis zehn Jahre durchsetzt, sei der Kampf auf Dauer endgültig verloren. Für Morozov – und nicht nur für ihn – geht es um die Demokratisierung unserer Daten.

Kann ein autonomes Software-System ein drittes Rechtssubjekt in der Mitbestimmung darstellen?

Schon seit vielen Jahr quälen sich Fachleute aus Technik und Recht mit der Frage, ob ein Roboter, ein selbstfahrendes Auto oder ein Software-System im gerichtlichen Sinne ein Rechtssubjekt sein kann. Das bisherige Rechtsdenken gibt auf diese Frage nur zum Teil ausreichende Antworten. Im Zentrum steht stets die Suche nach der Zuordnung: Wer ist für einen Vorgang verantwortlich? Ist es der beauftragende Veranlasser der Technik oder die Technik selbst? Was passiert aber, wenn diese Zuordnung nicht eindeutig zu treffen ist, weil sich das technische System durch seine „Selbstlern“-Fähigkeit in Echtzeitschritten ständig verändert?

Der „Sachverständigenrat für Verbraucherfragen beim Bundesministerium der Justiz und für Verbraucherschutz“ hat im Dezember 2016 in seinem Gutachten „Verbraucherrecht 2.0 – Verbraucher in der digitalen Welt“ das Dilemma benannt: „Schwieriger wird es bei der rechtlichen Beurteilung von selbst-lernenden Algorithmen. Hier geht es letztendlich um die Frage, wie sich künstliche Intelligenz (KI) auf das Rechtssystem auswirkt, ob die Zuordnung des Agenten zum Prinzipal durchbrochen wird, ob der Software-Agent selbst zum autonom handelnden Rechtssubjekt wird oder der Prinzipal, der den selbst-lernenden Algorithmus konfiguriert hat, der Letztverantwortliche bleibt. Mit anderen Worten: wer ist der Prinzipal und wer ist der Agent?“.

Am Horizont der Debatte ist eine Erweiterung der Rechtslage erkennbar. Es ist zu erwarten, dass das Zivilrecht eine qualitative Korrektur in dem Sinne erfährt, dass es neben der „natürlichen Person“ (Bürgerin, Bürger) und der „juristischen Person“ (Unternehmen, Verein, Verband, etc.) auch eine „elektronische Person“ (autonome Systeme) geben wird. Doch wie soll diese definiert werden, wenn „autonome Software-Systeme“ (ASS) als „selbstlernende“ Einheiten sich nach ihrem Start unaufhörlich wandeln und potenziell ihren eigenen Algorithmus umbauen?

Ein unkonventioneller Blick in die Zukunft könnte auch noch eine andere Herausforderung formulieren: Was könnte eine „elektronische Person“ im Prozess der Mitbestimmung bedeuten? Angenommen ein ASS würde als „elektronische Person“ juristisch anerkannt, träte es dann im innerbetrieblichen Mitbestimmungsprozess neben der Unternehmensleitung und dem Betriebsrat als ein dritter „Partner“ an den Verhandlungstisch? Müsste eine „elektronische Person“ im Hinblick auf die Auswirkungen von „autonomen Software-Systemen“ in der betriebsinternen oder betriebsübergreifenden Wertschöpfungskette auch im Betriebsverfassungsgesetz verankert werden? Der Gedanke mag manchen schaudern lassen. Doch ist er nicht in sich logisch und konsequent? Was würde vorausschauende soziale Technikgestaltung in diesem Zusammenhang erfordern?