Veranstaltungsreihe „Kristalle der Hoffnung – Kristalle der Utopie“

In Erinnerung an den Naturwissenschaftler, „Umweltbildner“ und Philosophen Jan Robert Bloch (1937–2010) und anlässlich des dreißigjährigen Bestehens des „Forum Soziale Technikgestaltung“ (1991–2021) laden verschiedene Akteure zu gemeinsamem Nachdenken ein. Die Veranstaltungsreihe findet statt in Zusammenarbeit mit der Heinrich Böll Stiftung Baden-Württemberg und dem „Forum Soziale Technikgestaltung“ beim DGB Baden-Württemberg in der Tradition seiner Veranstaltungsfolge „Arbeitswelt trifft Philosophie – Philosophie trifft Arbeitswelt“ – unterstützt vom Netzwerk „Sozialer Zusammenhalt in digitaler Lebenswelt“ sowie von der Buchzeitschrift „Latenz“.

Im Zentrum steht dabei die Frage nach den Ungleichzeitigkeiten im digitalen Umbruch. Der seit mehr als dreißig Jahren durch digitale Techniken angestoßene Wandel der Arbeitswelt kann nicht nur technikzentriert oder arbeitssoziologisch erfasst werden. Die großen Veränderungen beeinflussen das Bewusstsein der tätigen Menschen und umgekehrt. Der nüchterne Kernsatz „Das Sein bestimmt das Bewußtsein“ muss sozialpsychologisch und philosophisch ergänzt werden um den Blick auf die „Ungleichzeitigkeiten“ im Bewußtsein der Handelnden.

Die Digitalisierung von Leben und Arbeit bringt Hoffnungen, Enttäuschungen, vorwärtstreibende Träume und Entfremdungen mit sich. Die Fähigkeit zum konkret-utopischen Denken zeichnet den Menschen aus. Dazu möchte die Reihe einladen.

Zum Programm:  Programm_Kristalle_der_Hoffung_30_Jahre_FST 

 

Ungleichzeitigkeiten und Latenz im Prozess der digitalen Transformation

In den meisten Kontroversen um die Wege des technologischen Umbaus der Arbeitswelt, der digitalen Transformation, finden Akteure zusammen, die unter dem Deckmantel des Pragmatischen darüber streiten, wie schnell die Nutzerin und der Nutzer qualifiziert werden können, um mit neuen Oberflächen, Displays, Software und anderen digitalen Werkzeugen umgehen zu können. Der Diskurs geht von Technik aus, konzentriert sich auf Technik und reduziert sich auf Technik. Dabei ist aus sozialwissenschaftlicher Perspektive seit spätestens den siebziger Jahren bekannt und offensichtlich, dass erfolgreiche Technikimplementierungen nur nachhaltig gelingen können, wenn die nichttechnischen Gestaltungsfaktoren wie Empfindung, Bewusstsein, Motivation, Erfahrung etc. auf gleicher Augenhöhe wie die technischen Umsetzungsinstrumente berücksichtigt und angewandt werden.

Mit anderen Worten: Wer Technikeinführungen nur technikzentriert zu realisieren sucht, wird keine dauerhafte Lösung erreichen, wird scheitern. Wirkliche Innovationsprozesse basieren jeweils zur Hälfte aus technischen und aus sozialen Innovationen. Technikeinführungen ohne Integration des „Menschelns“ bleiben teure Technikruinen. Das haben die Debatten über die menschenleere Fabrik CIM oder über betriebliche Wissensmanagement-Systeme ausgiebig gezeigt.

Mit der schrittweisen forcierten Anwendung digitaler Werkzeuge in den Arbeitswelten seit den achtziger bzw. neunziger Jahren, hat sich die Spannung zwischen der alten analogen Lebenserfahrung in dato bisherigen Arbeitsumgebungen und den neuen Erfahrungen mit Arbeitsbeziehungen unter dem Anspruch der digitalen Transformationen erheblich zugespitzt. Zwischen vertrauter Vertrautheit und nicht-vertrauter Fremdheit polarisiert das Bewusstsein der abhängig Beschäftigten.

Während im Alltag in hoher Geschwindigkeit das technisch Neue den Menschen fordert, reagiert sein Bewusstsein auf Irritationen zumeist mit Abwarten oder dem Rückgriff auf Vorhandenes. Mit alten Erfahrungen wendet sich die/der Beschäftigte dem Gewandelten zu. Wenn der Wandel zu schnell geht oder Befürchtungen auslöst, finden nicht nur Rückgriffe auf alte Erfahrungen sondern vermehrt auch Rückgriffe auf alte Erklärungsmuster statt. Wenn aber alte Erklärungen dazu herhalten müssen, Neues zu verstehen, dann verhält sich altes und neues Bewusstsein ungleichzeitig zueinander. Wenn aber vertraute Lebensmuster keinen Zugang zu Veränderungsprozessen finden, wenn alte Erfahrungen neue Erfahrungen blockieren, dann kann ein Innovationsprozess nicht erfolgreich realisiert werden.

Eine der Schlüsselherausforderungen im Prozess der digitalen Transformationen liegt in der Aufhebung der Ungleichzeitigkeiten im Bewusstsein der arbeitenden Menschen, in der Bewusstmachung intuitiver Erfahrungen und latent wirkender, gesammelter Hoffnungen wie auch Enttäuschungen. Menschen mit solchen Wahrnehmungen lassen sich nicht einseitig durch harte Technikvollzüge für neue Lösungen gewinnen.

Die Aufhebung der Ungleichzeitigkeiten verlangt die Möglichkeit zu selbstbewusstem Handeln und zu demokratischer Partizipation sowie kollegialer Selbstbestimmung. Der arbeitende Mensch muss sich selbst im Vorgang des Wandels verorten können, muss sich selbst als Subjekt der Veränderung begreifen können. Das Aufgreifen der Latenz noch-nicht-eingelöster öffentlicher Tagträume von humanen Arbeitswelten kann, wenn sie emporgehoben werden, erheblich helfen.

 

„Maschinenethik“ (Teil I): Annäherungen an einen schillernden und widersprüchlichen Begriff

Wer sich mit der Virtualisierung und Digitalisierung der Arbeitswelten befasst, stolpert schnell über die Erkenntnis, dass es neben den handfesten Veränderungen für arbeitende Menschen auch um Drittmittelmärkte, um Strategien zur Erlangung von staatlichen Fördermitteln und um zeitweise substanzlose Marketingauftritte geht. Dieses Auseinanderklaffen von realen Notwendigkeiten und bloßen Akquise-Shows begegnet den kundigen Betrachtenden nun auch auf der Bühne des Wortes „Maschinenethik“.

Wer sich unkundig in die Sprachwelten der „Maschinenethik“ vorwagt, zuckt beeindruckt zurück. Da treten wissenschaftliche Teams auf, die sich mit vermeintlich spektakulären Erkenntnissen aufmachen, Fördermittel aus den staatlichen Händen auf europäischer, Bundes- oder Landes-Ebene zu ergattern. Da werden „Wirklichkeiten“ beschrieben, die keine sind, um Aufmerksamkeit zu erheischen. So schreibt ein akademischer Kopf, dass das zentrale Zukunftsthema der Digitalisierung und Virtualisierung die Herausforderung sei, dass Maschinen nun Ethik und Moral besitzen und ausführen könnten.

Die Maschine wird zum bewusstseinsfähigen Subjekt ernannt, das durch Datensammeln und Auswertungen Bewusstsein, Reflexionskompetenz, Ethik und Moral erlangen könnte. Die vermeintliche „Künstliche Intelligenz“ verfügt in solchen Beschreibungen alsbald über „Künstliche Ethik“ oder noch besser – wie ein nach Aufmerksamkeit strebender Ethiker schreibt – über „Künstliche Tugend“.

Klar, wenn man ein solches Szenario den zuständigen Vergabestellen der Ministerien einreden kann, hat man den sechs- bis siebenstelligen Betrag schon gewonnen. Wer wollte angesichts solcher Dämonen an der Wand der Zukunft nicht den Steuer-Geldbeutel für kulturelle Prävention öffnen.

Bei allem Respekt vor Frauen und Männern aus Ingenieur- und Informationswissenschaften muss man laut „Halt“ rufen! Ein solches Verständnis und Szenario von „Maschinenethik“ ist schlicht inakzeptabel. Weder kann ein physischer Blechhaufen noch ein digitaler Software-Haufen im aufgeklärt sozialwissenschaftlichen, philosophischen und menschenrechtlichen Sinne Bewusstsein im Sinne des Humanum erreichen. Ein solches Gerede von „Maschinenethik“ will Aufmerksamkeit, will vorsätzlich verunsichern und den Golem herbeireden.

Betrachtet man die technologische Wirklichkeit des Status quo und die Arbeiten in Laboren, dann lässt sich zweifellos feststellen, dass hier Gigantisches geleistet wurde. Brillante Mathematik und hervorragende Informatik haben Software-Systeme (allen voran „Autonome Software-Systeme“) hervorgebracht, die in glänzender Weise zur Verfahrens- und Prozessteuerung geeignet sind. Diese Systeme spiegeln dem Menschen vor, dass die Software „denken“ könnte und der Mensch verhält sich entsprechend, um diese Projektion zu vervollkommnen.

Das Problem sitzt vor (!) dem Bildschirm. Der Mensch hält das Agieren der Software für Denken und orientiert sein eigenes Verhalten gemäß dieser Projektion. Nicht das nicht vorhandene Bewusstsein in (!) der Maschine ist zu hinterfragen, sondern das Naive im Bewusstsein des Menschen stellt die Herausforderung dar.

Gerade für einen konstruktiven und innovativen Umgang mit neuen digitalen Lösungen sollten wir uns nicht in die Sackgassen der Hollywood-Filme drängen lassen: Sogenannte „Künstliche Intelligenz“ mit Bewusstsein gibt es nicht. Auch nicht in naher Zukunft. Was es gibt, sind aufregend gute mathematische Anwendungen mit enormen Potenzialen. Diese gilt es, engagiert demokratisch und sozial zu gestalten. Lassen wir uns nicht von vermeintlichen „Maschinen-Ethikern“ davon abhalten.

 

„Maschinenethik“ (Teil II): Der Wandel des Menschenbildes

Wie oben beschrieben wollen die Anhänger der „Maschinenethik“ in Geräten und in der Software menschenähnliches reflexionsfähiges Bewusstsein entdeckt haben. Diese Annahme fußt auf einer Voraussetzung, die es dringend zu hinterfragen gilt. Wenn Maschinen Ethik und Bewusstsein besitzen, welches Verständnis von Ethik und Bewusstsein wird dabei zugrunde gelegt?

Wir kennen dieses Phänomen aus der Verbindung von Robotik-Entwicklung und Kinderpsychologie bzw. Kinderpädagogik. Die Forschungsteams, die menschenähnlichen (humanoiden) Robotern Bewegungen beibringen, greifen dabei auf biografisch-soziale Lernprozesse von Kleinkindern zurück. Wie lernen Kinder? Wie greifen und tasten sie? Wie wiederholen sie Bewegungen? Bei diesem Ansatz reduzieren die Robotik-Teams die Verhaltensmuster der Kleinkinder, um die abstrahierten Vorgänge technisch nachbilden zu können. Damit Roboter „lernen“ können, muss das Verhalten eines Kindes vereinfacht und reduziert werden. Solange sich alle Beteiligten darüber im Klaren sind und wissen, dass das tatsächliche und wirkliche  Verhalten von Kindern viel komplexer ist, besteht kein Risiko für Ideologisierungen.

Die Debatte um „Maschinenethik“ ist mit der Adaption des Verhaltens von Kindern zur Implementierung in Roboter methodisch vergleichbar. Zugespitzt formuliert bedeutet dies: Um in einem mathematisierten Software-Haufen „Bewusstsein“ zu entdecken, muss das Verständnis von Bewusstsein so heruntergefahren und reduziert werden, dass es technisch nachbildbar wird. Hinter der Frage, ob Maschinen eine Ethik und eine  Moral besitzen können, verbirgt sich die gravierende Frage, wie sich das Menschenbild und das Humanum anpassen müssen, um für solch eine „Maschinenethik“ passend zu sein.

Ein gewisser Teil derjenigen, die sich diesem Typ der „Maschinenethik“ verschrieben haben, arbeitet nicht an der Maschine oder an der Software sondern am Wandel des Menschenbildes. Die exzessivste Form davon stellen die „Transhumanisten“ dar, die unter dem Vorwand der biologischen Evolution die Verknüpfung von Organischem und Digitalem anstreben. Letztlich soll das ewige Leben dadurch erreicht werden, dass ein digitalisiertes menschliches Gehirn mit Bewusstsein in einer Hardware fort“lebt“.
In der Bundesrepublik haben bestimmte „Ethiker“ extra eine Partei gegründet. Ihre – vor allem männlichen – Vertreter versuchen, über vorhandene hiesige Organisationen und über honorige Stiftungen ihre ideologisierten, teilweise aus den USA kopierten Konzepte zu verbreiten.

Einige der amerikanischen Transhumanisten setzen für das Menschenbild der Zukunft drei zentrale Begriffe: männlich, weiß, digital. Dieser Typ von „Maschinenethik“ revidiert das Menschenbild der UN-Charta der Menschenrechte.

 

„Hinter diesen Augen sitzt kein Ich“

Wer kennt nicht die Bilder und Szenen, wenn auf Technologiemessen ein begeisterter Mensch dem „süßen“ kleinen Roboter „Pepper“ über den Kopf streicht, ihm wie einem Kind in die „Augen“ schaut, als ob dieses vermeintliche Geschöpf dann dankend zurücklächelt. Der Mensch sucht Interaktion und projiziert Interaktionsfähigkeit auf den mobilen Blechhaufen.

Einem solchen Menschen gab der nachdenkliche Technikethiker Karsten Weber einen ernüchternden Rat mit auf den Weg: „Hinter diesen Augen sitzt kein Ich.“ Mit dieser Äußerung wollte der Wissenschaftler aus Regensburg jenen widersprechen, die in der momentanen Roboterentwicklung schon Maschinen „mit Bewusstsein“ zu erkennen glaubten. Davon sei man mehr als weit entfernt, wenn dieses Ziel überhaupt je erreicht werden könnte.

Die Projektion menschlicher Eigenschaften auf die Maschinen sei unangebracht und falsch. Weder menschenähnliche Roboter noch selbst fahrende Autos besäßen jene „Autonomie“, die es ihnen erlauben würde, selbst ethische bzw. normative Regeln zu setzen. Dies sei und bleibe Aufgabe des Menschen.

Auf einer Tagung zum Thema „Künstliche Intelligenz“ der Integrata-Stiftung und des Tübinger Weltethos-Institutes kritisierte Weber den unverantwortlichen Umgang mit schwerwiegenden moralischen und ethischen Fragen bei der Entwicklung der KI. Die „Anthropomorphisierung von Maschinen“ (Übertragung menschlicher Eigenschaften auf Maschinen) sei ein gravierender Fehlschluss.

Der Technikethiker verwies wissenschaftlich methodisch präzise auf die Erfahrungen mit Technikentwicklungen der letzten Jahrzehnte. Technik sei nie neutral, sie sei immer wertebasiert, wertegebunden und wertebeladen. Dies bedeute, dass bei der Konzipierung technischer Innovationen immer bewusst oder unbewusst normative Überzeugungen, Werte, Vorurteile, Interessen in die Technikentwicklung einfließen. Dies schließe ein, dass immer wieder ein Hinterfragen vorhandener Technik stattfinden müsse, da sich parallel zur Technikentwicklung auch gesellschaftliche Werte und Lebensstile (zum Beispiel Geschlechterrollen) ständig veränderten.

Diese Wertegebundenheit technischer Konzeptionen müsse – so die Diskussion – gerade bei einem besonders empfindlichen Teil der KI, nämlich der Nutzung von „selbstlernenden Software-Systemen“, deutlichere Berücksichtigung finden. Denn auch hier gilt: Hinter diesen Algorithmen sitzt kein Ich.