Der künstliche Mensch? Menschenbilder im 21. Jahrhundert

Unter diesem Titel haben sich Aktive aus dem Forum Soziale Technikgestaltung und aus dem Kreis der Partner zusammengefunden, um im Angesicht der sogenannten „Künstlichen Intelligenz“ Beiträge aus der Perspektive der Gewerkschaften, der Sozialwissenschaften, der Philosophie, der Religionskritik und der Jurisprudenz über den Mensch zu verfassen. Nicht die Technikanalyse steht im Vordergrund sondern die Frage nach der Rolle des Menschen und dem Menschenbild. Die Beiträge wurden zusammengeführt und als 125seitiger Schwerpunkt in dem mehr als 260 Seiten umfassenden Journal „Latenz“ im Oktober 2019 (Latenz 04/2019) veröffentlicht.

Ist die Frage nach einem ethischen Menschenbild ein überholter Romantizismus oder eine soziale Notwendigkeit der Aufklärung für den Zusammenhalt von Gesellschaften? Was sind die zukunftsweisenden Erbschaften einer Jahrhunderte übergreifenden Diskussion um das Bild des Menschen? Worauf basiert ein solidarisches Menschenbild? Welches Menschenbild transportieren die Bürger- und Menschenrechte? Wie lässt sich vermeiden, dass einseitig gesetzte und in Technik implementierte Profile von digitalen Figuren den demokratischen Regeln und Rechten der Vielfalt, der Integration und Inklusion zuwiderlaufen? Welche Konsequenzen haben die aktuellen technischen wie gesellschaftlichen Transformationsprozesse für eine philosophische Anthropologie?

Mit seinem Beitrag „Menschenbilder, Visionen, Normen: Orientierungen für ‚Gute Arbeit mit KI‘“ greift der Ver.di-Gewerkschafter Lothar Schröder in die Kontroverse um die „Künstliche Intelligenz“ ein. Aus arbeitsweltlicher Perspektive ermutigt er zur Weiterentwicklung der Humanisierung der Arbeit durch die Selbstbestimmung des Menschen: „Den Menschen als digitale Maschine zu deuten und ihn entsprechend programmierten, ‚lernenden‘ Systemen auszusetzen oder gar unterzuordnen, muss zwangsläufig zu inhumanen und inakzeptablen Resultaten führen.“

Für das „Recht auf Irrationalität“ angesichts der „zunehmenden Unbewohnbarkeit von Fiktionen“ spricht sich der Soziologe Stefan Selke aus. In Hinblick auf Big Data und die Verschiebung des Humanum durch erweiterte Digitalisierungen plädiert der Autor für die „selbstbestimmte Erzählbarkeit.“ Der Tübinger Philosoph Helmut Fahrenbach geht der anthropologischen Frage im Denken von Ernst Bloch nach. Unter dem Titel „Das Leben künstlich oder menschlich machen?“ übt Annette Schlemm philosophische Kritik an den Denkgebäuden des Transhumanismus. Sie verteidigt die zivilgesellschaftliche Vielfalt gegen technikgläubigen Reduktionismus. In brillanter Schärfe zeigt uns der Jurist Ingo Müller die Relevanz der Grundrechte auf und, „dass im Zentrum unserer Werteordnung die Grundrechte stehen, nicht Staat oder Kirche, sondern der Mensch“.

In einem Interview von Johanna Di Blasi kommt der Filmemacher Alexander Kluge zu Wort. Mit seiner Formel von der „Achtung vor Robotern“ setzt er sich mit der „sozialen Intelligenz der Maschinen und Goethes Homunculus, der klüger ist als der Mensch“ auseinander. Aus der Schweiz meldet sich Kurt Seifert mit einem philosophisch-politischen Text zu Wort: „Was fehlt? Transhumanismus als Anti-Utopie“. Mit der Widersprüchlichkeit und der historischen Belastetheit des Terminus „Der neue Mensch“ verknüpft der Autor frühe Diskussionen im Russland der zwanziger Jahre mit späteren autoritären Terrorformen Stalins und Mao Tse Tungs. Gegen eine einseitige Aufhübschung der Debatte um die sogenannten „Künstliche Intelligenz“ nimmt Welf Schröter in seiner pointierten nachdenklichen Polemik „Warum der Begriff ‚KI‘ nicht als ‚künstliche‘ sondern nur als ‚kleine‘ oder ‚keine Intelligenz‘ ausgeschrieben werden sollte“ aus gestaltungsspezifischer Sicht Stellung. Anknüpfend hat sich der Sozialwissenschaftler György Széll auf den Weg gemacht, eine umfangreiche, wertende Sammelrezension zu „KI“-Publikationen zu erstellen. Unter dem Titel „Homo sapiens demens“ bewegt er sich durch die Literatur.

Buchangaben: Latenz – Journal für Philosophie und Gesellschaft, Arbeit und Technik, Kunst und Kultur. Ausgabe 04|2019. Der Künstliche Mensch? Menschenbilder im 21. Jahrhundert. Hrsg. von Irene Scherer und Welf Schröter. Redaktion: Matthias Mayer, Mathias Richter, Inka Thunecke, Irene Scherer und Welf Schröter. 2019, 264 Seiten, 34,00 Euro, ISBN 978-3-89376-185-2.

 

„Hinter diesen Augen sitzt kein Ich“

Wer kennt nicht die Bilder und Szenen, wenn auf Technologiemessen ein begeisterter Mensch dem „süßen“ kleinen Roboter „Pepper“ über den Kopf streicht, ihm wie einem Kind in die „Augen“ schaut, als ob dieses vermeintliche Geschöpf dann dankend zurücklächelt. Der Mensch sucht Interaktion und projiziert Interaktionsfähigkeit auf den mobilen Blechhaufen.

Einem solchen Menschen gab der nachdenkliche Technikethiker Karsten Weber einen ernüchternden Rat mit auf den Weg: „Hinter diesen Augen sitzt kein Ich.“ Mit dieser Äußerung wollte der Wissenschaftler aus Regensburg jenen widersprechen, die in der momentanen Roboterentwicklung schon Maschinen „mit Bewusstsein“ zu erkennen glaubten. Davon sei man mehr als weit entfernt, wenn dieses Ziel überhaupt je erreicht werden könnte.

Die Projektion menschlicher Eigenschaften auf die Maschinen sei unangebracht und falsch. Weder menschenähnliche Roboter noch selbst fahrende Autos besäßen jene „Autonomie“, die es ihnen erlauben würde, selbst ethische bzw. normative Regeln zu setzen. Dies sei und bleibe Aufgabe des Menschen.

Auf einer Tagung zum Thema „Künstliche Intelligenz“ der Integrata-Stiftung und des Tübinger Weltethos-Institutes kritisierte Weber den unverantwortlichen Umgang mit schwerwiegenden moralischen und ethischen Fragen bei der Entwicklung der KI. Die „Anthropomorphisierung von Maschinen“ (Übertragung menschlicher Eigenschaften auf Maschinen) sei ein gravierender Fehlschluss.

Der Technikethiker verwies wissenschaftlich methodisch präzise auf die Erfahrungen mit Technikentwicklungen der letzten Jahrzehnte. Technik sei nie neutral, sie sei immer wertebasiert, wertegebunden und wertebeladen. Dies bedeute, dass bei der Konzipierung technischer Innovationen immer bewusst oder unbewusst normative Überzeugungen, Werte, Vorurteile, Interessen in die Technikentwicklung einfließen. Dies schließe ein, dass immer wieder ein Hinterfragen vorhandener Technik stattfinden müsse, da sich parallel zur Technikentwicklung auch gesellschaftliche Werte und Lebensstile (zum Beispiel Geschlechterrollen) ständig veränderten.

Diese Wertegebundenheit technischer Konzeptionen müsse – so die Diskussion – gerade bei einem besonders empfindlichen Teil der KI, nämlich der Nutzung von „selbstlernenden Software-Systemen“, deutlichere Berücksichtigung finden. Denn auch hier gilt: Hinter diesen Algorithmen sitzt kein Ich.

 

Verengungen im Blick auf die KI

Eine gemeinsam von der Integrata-Stiftung, des Weltethos-Institutes und der Giordano-Bruno-Stiftung organisierte öffentliche Fachtagung zur gesellschaftlichen Bedeutung der Entwicklung von KI (Künstliche Intelligenz) wollte die Gestaltungskompetenz auf Seiten der Bürgerinnen und Bürger stärken.

Dabei verengte sich der Diskurs in Tübingen allerdings auf zwei technische Innovationen – die jenseits von Wirtschafts- und Arbeitswelt verortet wurden. Im Zentrum standen die Potentiale selbst fahrender Autos und selbst laufender Roboter. Im KI-Diskurs gelten diese beiden Anwendungen eher nicht als zentraler Fokus der Herausforderungen. Denn sie sind letztlich nur der Hardware-Schlusspunkt einer ansonsten primär softwaretechnischen Entfaltung.

Einer der wichtigen Schlüssel zur Potentialanalyse der KI liegt – gemäß des Beitrages des Forum Soziale Technikgestaltung – in der Einschätzung und interessensorientierten Beeinflussung „autonomer Software-Systeme“ wie etwa „Watson“ von IBM. Wer gesellschaftspolitisch – zu Recht – Einfluss auf die KI-Entwicklung nehmen will, muss den Blick wechseln: Nicht vom Endgerät (Roboter, Auto, Hardware) wäre zu schauen, also vom „front end“ her, sondern von der Steuerungsebene her, vom „back end“, gilt es sich zu nähern.

Die Kernfrage lautet: Welche gesellschaftlichen und gesellschaftspolitischen Interventionen bereiten den Weg zur Demokratisierung des „back end“? Wie demokratisieren wir die Algorithmen? Dabei wäre die Gestaltung dieser selbstlernenden Software-Systeme in der Arbeitswelt objektiv der zu erwartende Pionierfall. – Dies wäre ein mutiges Thema für die nächste KI-Tagung des Tübinger Dreigestirns.

 

Arbeit 4.0 benötigt Mitbestimmung 4.0

Die Fachwelt spricht über die „digitale Transformation“ von Wirtschaft und Arbeitswelt. Gemeint ist der Wandel hin zu „Arbeit 4.0“. Dieser Umbau der Arbeitswelt schließt sowohl die nachholende Digitalisierung der Betriebe wie auch die Öffnung hin zur Anwendung „autonomer Systeme“ ein. In vielen Betrieben werden heute erst digitale Technologien und digital gestützte Organisationsmodelle eingeführt, die aber als Technik schon seit Jahren auf dem Markt sind. Unter „autonomen Systemen“ sind nicht allein selbstfahrende Materialtransporter oder neue Robotergenerationen gemeint. Vielmehr haben wir es in Zukunft vermehrt mit Softwaresystemen zu tun, die selbst „denken“ und selbst „entscheiden“ sollen. In Echtzeit. Diese „autonomen Systeme“ sind die neue Herausforderung.

Der Wandel der Arbeit wird aus der Sicht von Beschäftigten mit den vorhandenen Mitbestimmungsmöglichkeiten nicht ausreichend gestaltbar sein. Betriebsräte wünschen sich mehr Mitbestimmung, um aus dem Wandel der Arbeit eine Humanisierung der Arbeit machen zu können. Dabei wird das Feld der Arbeitsgestaltung immer unübersichtlicher. Digital-virtuelle Arbeitswelten sind sehr flexibel und passen sich an neue Verfahren an. Immer mehr und schneller soll jeder Auftrag anders bearbeitet werden. Wertschöpfung im Betrieb und Wertschöpfung betriebsübergreifend werden virtuell verknüpft.

Betriebsräte sprechen von einer neuen „Unschärfe“ für Mitbestimmung: „Wie soll ich die Leitplanken passend anbringen, wenn ich die Kurve nicht rechtzeitig erkennen kann.“ Es gärt in den Köpfen von Betriebsräten. Wie kann Mitbestimmung vertieft und ihre Anwendung flexibler werden?

Von träumenden Robotern und vom Traum eines Betriebsrates

Zwei einarmige Roboter schenken den Besuchern der Hannover Messe 2016 ein Glas Bier ein. (Foto: © Welf Schröter)

Zwei einarmige Roboter schenken den Besuchern der Hannover Messe 2016 ein Glas Bier ein. (Foto: © Welf Schröter)

Es gibt Forschungslabors großer internationaler Unternehmen, da treffen sich kreative Köpfe und beginnen zu träumen. In ihren Träumen, die fast einer konkreten Utopie nahe kommen, begegnen ihnen humanoide Robotergestalten, die freundlich grüßen und kluge Fragen beantworten. Diese menschenähnlich designten Maschinen erzählen nun seit neuestem ihren analogen IT-Schöpfern, dass sie als künstlich geschaffene Gestalten in ihren virtuellen Unendlichkeiten selbst träumten. In ihren Nachtträumen treffen die Roboter auf Therapeuten, die den Menschmaschinen psychologische Hilfe anbieten. Zu oft hätten die Humanoiden unter den unsystematischen und emotionalen Widersprüchen der Analogen gelitten. Die Humanoiden sehen sich von den Analogen traumatisiert. Die Maschinen fordern Inklusion und drohen mit selbstorganisierten antiautoritären Selbsthilfegruppen.

Beim Stichwort „antiautoritär“ erwachte der Kollege Betriebsrat und begann zu zweifeln. Hatte er geschlafen oder gar geträumt? Waren die Humanoiden schon aktiv? Wieso fiel ihm jetzt der Name eines Schweizer FutureLabs ein? – Sicher war er sich jetzt nur hinsichtlich seines eigenen früheren Tagtraumes: Als konkrete Utopie hatte er sich einen autonomen Mitbestimmungsalgorithmus ersehnt, der in Echtzeit durch den virtuellen Raum pirscht auf der Jagd nach neuen digitalen Werkzeugen, die doch so schändlichst die jüngste Betriebsvereinbarung unterlaufen wollen. Ein solch autonomer Bot sollte dem Betriebsrat angehören und rund um die Uhr wachen können. Voilà – das wäre eine Assistenz! Die würde endlich entlasten!

Beim Stichwort „Assistenz“ klingelte der Smartphone-Wecker und der Kollege erwachte. – War da was? Oder etwa doch? – Erneut surrte das Phone: „Kollege wo bleibst Du. Die Betriebsratssitzung hat schon angefangen. Wir haben ein Problem: Die Geschäftsleitung will mehrere zweiarmige humanoide Leichtmetall-Roboter für den Ausschank in der Kantine einsetzen. Die einarmigen Robbis haben sich nun sehr aufgewühlt an uns gewandt. Sie fürchten, dass die Zweiarmigen sie wegrationalisieren. Was tun?“

Der Kollege schüttelte sich. Sah verwirrt auf die Uhr. Draußen war es noch still und dunkel. Er legte sich wieder hin.