„Hinter diesen Augen sitzt kein Ich“

Wer kennt nicht die Bilder und Szenen, wenn auf Technologiemessen ein begeisterter Mensch dem „süßen“ kleinen Roboter „Pepper“ über den Kopf streicht, ihm wie einem Kind in die „Augen“ schaut, als ob dieses vermeintliche Geschöpf dann dankend zurücklächelt. Der Mensch sucht Interaktion und projiziert Interaktionsfähigkeit auf den mobilen Blechhaufen.

Einem solchen Menschen gab der nachdenkliche Technikethiker Karsten Weber einen ernüchternden Rat mit auf den Weg: „Hinter diesen Augen sitzt kein Ich.“ Mit dieser Äußerung wollte der Wissenschaftler aus Regensburg jenen widersprechen, die in der momentanen Roboterentwicklung schon Maschinen „mit Bewusstsein“ zu erkennen glaubten. Davon sei man mehr als weit entfernt, wenn dieses Ziel überhaupt je erreicht werden könnte.

Die Projektion menschlicher Eigenschaften auf die Maschinen sei unangebracht und falsch. Weder menschenähnliche Roboter noch selbst fahrende Autos besäßen jene „Autonomie“, die es ihnen erlauben würde, selbst ethische bzw. normative Regeln zu setzen. Dies sei und bleibe Aufgabe des Menschen.

Auf einer Tagung zum Thema „Künstliche Intelligenz“ der Integrata-Stiftung und des Tübinger Weltethos-Institutes kritisierte Weber den unverantwortlichen Umgang mit schwerwiegenden moralischen und ethischen Fragen bei der Entwicklung der KI. Die „Anthropomorphisierung von Maschinen“ (Übertragung menschlicher Eigenschaften auf Maschinen) sei ein gravierender Fehlschluss.

Der Technikethiker verwies wissenschaftlich methodisch präzise auf die Erfahrungen mit Technikentwicklungen der letzten Jahrzehnte. Technik sei nie neutral, sie sei immer wertebasiert, wertegebunden und wertebeladen. Dies bedeute, dass bei der Konzipierung technischer Innovationen immer bewusst oder unbewusst normative Überzeugungen, Werte, Vorurteile, Interessen in die Technikentwicklung einfließen. Dies schließe ein, dass immer wieder ein Hinterfragen vorhandener Technik stattfinden müsse, da sich parallel zur Technikentwicklung auch gesellschaftliche Werte und Lebensstile (zum Beispiel Geschlechterrollen) ständig veränderten.

Diese Wertegebundenheit technischer Konzeptionen müsse – so die Diskussion – gerade bei einem besonders empfindlichen Teil der KI, nämlich der Nutzung von „selbstlernenden Software-Systemen“, deutlichere Berücksichtigung finden. Denn auch hier gilt: Hinter diesen Algorithmen sitzt kein Ich.

 

Verengungen im Blick auf die KI

Eine gemeinsam von der Integrata-Stiftung, des Weltethos-Institutes und der Giordano-Bruno-Stiftung organisierte öffentliche Fachtagung zur gesellschaftlichen Bedeutung der Entwicklung von KI (Künstliche Intelligenz) wollte die Gestaltungskompetenz auf Seiten der Bürgerinnen und Bürger stärken.

Dabei verengte sich der Diskurs in Tübingen allerdings auf zwei technische Innovationen – die jenseits von Wirtschafts- und Arbeitswelt verortet wurden. Im Zentrum standen die Potentiale selbst fahrender Autos und selbst laufender Roboter. Im KI-Diskurs gelten diese beiden Anwendungen eher nicht als zentraler Fokus der Herausforderungen. Denn sie sind letztlich nur der Hardware-Schlusspunkt einer ansonsten primär softwaretechnischen Entfaltung.

Einer der wichtigen Schlüssel zur Potentialanalyse der KI liegt – gemäß des Beitrages des Forum Soziale Technikgestaltung – in der Einschätzung und interessensorientierten Beeinflussung „autonomer Software-Systeme“ wie etwa „Watson“ von IBM. Wer gesellschaftspolitisch – zu Recht – Einfluss auf die KI-Entwicklung nehmen will, muss den Blick wechseln: Nicht vom Endgerät (Roboter, Auto, Hardware) wäre zu schauen, also vom „front end“ her, sondern von der Steuerungsebene her, vom „back end“, gilt es sich zu nähern.

Die Kernfrage lautet: Welche gesellschaftlichen und gesellschaftspolitischen Interventionen bereiten den Weg zur Demokratisierung des „back end“? Wie demokratisieren wir die Algorithmen? Dabei wäre die Gestaltung dieser selbstlernenden Software-Systeme in der Arbeitswelt objektiv der zu erwartende Pionierfall. – Dies wäre ein mutiges Thema für die nächste KI-Tagung des Tübinger Dreigestirns.