„Maschinenethik“ (Teil I): Annäherungen an einen schillernden und widersprüchlichen Begriff

Wer sich mit der Virtualisierung und Digitalisierung der Arbeitswelten befasst, stolpert schnell über die Erkenntnis, dass es neben den handfesten Veränderungen für arbeitende Menschen auch um Drittmittelmärkte, um Strategien zur Erlangung von staatlichen Fördermitteln und um zeitweise substanzlose Marketingauftritte geht. Dieses Auseinanderklaffen von realen Notwendigkeiten und bloßen Akquise-Shows begegnet den kundigen Betrachtenden nun auch auf der Bühne des Wortes „Maschinenethik“.

Wer sich unkundig in die Sprachwelten der „Maschinenethik“ vorwagt, zuckt beeindruckt zurück. Da treten wissenschaftliche Teams auf, die sich mit vermeintlich spektakulären Erkenntnissen aufmachen, Fördermittel aus den staatlichen Händen auf europäischer, Bundes- oder Landes-Ebene zu ergattern. Da werden „Wirklichkeiten“ beschrieben, die keine sind, um Aufmerksamkeit zu erheischen. So schreibt ein akademischer Kopf, dass das zentrale Zukunftsthema der Digitalisierung und Virtualisierung die Herausforderung sei, dass Maschinen nun Ethik und Moral besitzen und ausführen könnten.

Die Maschine wird zum bewusstseinsfähigen Subjekt ernannt, das durch Datensammeln und Auswertungen Bewusstsein, Reflexionskompetenz, Ethik und Moral erlangen könnte. Die vermeintliche „Künstliche Intelligenz“ verfügt in solchen Beschreibungen alsbald über „Künstliche Ethik“ oder noch besser – wie ein nach Aufmerksamkeit strebender Ethiker schreibt – über „Künstliche Tugend“.

Klar, wenn man ein solches Szenario den zuständigen Vergabestellen der Ministerien einreden kann, hat man den sechs- bis siebenstelligen Betrag schon gewonnen. Wer wollte angesichts solcher Dämonen an der Wand der Zukunft nicht den Steuer-Geldbeutel für kulturelle Prävention öffnen.

Bei allem Respekt vor Frauen und Männern aus Ingenieur- und Informationswissenschaften muss man laut „Halt“ rufen! Ein solches Verständnis und Szenario von „Maschinenethik“ ist schlicht inakzeptabel. Weder kann ein physischer Blechhaufen noch ein digitaler Software-Haufen im aufgeklärt sozialwissenschaftlichen, philosophischen und menschenrechtlichen Sinne Bewusstsein im Sinne des Humanum erreichen. Ein solches Gerede von „Maschinenethik“ will Aufmerksamkeit, will vorsätzlich verunsichern und den Golem herbeireden.

Betrachtet man die technologische Wirklichkeit des Status quo und die Arbeiten in Laboren, dann lässt sich zweifellos feststellen, dass hier Gigantisches geleistet wurde. Brillante Mathematik und hervorragende Informatik haben Software-Systeme (allen voran „Autonome Software-Systeme“) hervorgebracht, die in glänzender Weise zur Verfahrens- und Prozessteuerung geeignet sind. Diese Systeme spiegeln dem Menschen vor, dass die Software „denken“ könnte und der Mensch verhält sich entsprechend, um diese Projektion zu vervollkommnen.

Das Problem sitzt vor (!) dem Bildschirm. Der Mensch hält das Agieren der Software für Denken und orientiert sein eigenes Verhalten gemäß dieser Projektion. Nicht das nicht vorhandene Bewusstsein in (!) der Maschine ist zu hinterfragen, sondern das Naive im Bewusstsein des Menschen stellt die Herausforderung dar.

Gerade für einen konstruktiven und innovativen Umgang mit neuen digitalen Lösungen sollten wir uns nicht in die Sackgassen der Hollywood-Filme drängen lassen: Sogenannte „Künstliche Intelligenz“ mit Bewusstsein gibt es nicht. Auch nicht in naher Zukunft. Was es gibt, sind aufregend gute mathematische Anwendungen mit enormen Potenzialen. Diese gilt es, engagiert demokratisch und sozial zu gestalten. Lassen wir uns nicht von vermeintlichen „Maschinen-Ethikern“ davon abhalten.

 

„Maschinenethik“ (Teil II): Der Wandel des Menschenbildes

Wie oben beschrieben wollen die Anhänger der „Maschinenethik“ in Geräten und in der Software menschenähnliches reflexionsfähiges Bewusstsein entdeckt haben. Diese Annahme fußt auf einer Voraussetzung, die es dringend zu hinterfragen gilt. Wenn Maschinen Ethik und Bewusstsein besitzen, welches Verständnis von Ethik und Bewusstsein wird dabei zugrunde gelegt?

Wir kennen dieses Phänomen aus der Verbindung von Robotik-Entwicklung und Kinderpsychologie bzw. Kinderpädagogik. Die Forschungsteams, die menschenähnlichen (humanoiden) Robotern Bewegungen beibringen, greifen dabei auf biografisch-soziale Lernprozesse von Kleinkindern zurück. Wie lernen Kinder? Wir greifen und tasten sie? Wie wiederholen sie Bewegungen? Bei diesem Ansatz reduzieren die Robotik-Teams die Verhaltensmuster der Kleinkinder, um die abstrahierten Vorgänge technisch nachbilden zu können. Damit Roboter „lernen“ können, muss das Verhalten eines Kindes vereinfacht und reduziert werden. Solange sich alle Beteiligten darüber im Klaren sind und wissen, dass das tatsächliche und wirkliche  Verhalten von Kindern viel komplexer ist, besteht kein Risiko für Ideologisierungen.

Die Debatte um „Maschinenethik“ ist mit der Adaption des Verhaltens von Kindern zur Implementierung in Roboter methodisch vergleichbar. Zugespitzt formuliert bedeutet dies: Um in einem mathematisierten Software-Haufen „Bewusstsein“ zu entdecken, muss das Verständnis von Bewusstsein so heruntergefahren und reduziert werden, dass es technisch nachbildbar wird. Hinter der Frage, ob Maschinen eine Ethik und eine  Moral besitzen können, verbirgt sich die gravierende Frage, wie sich das Menschenbild und das Humanum anpassen müssen, um für solch eine „Maschinenethik“ passend zu sein.

Ein gewisser Teil derjenigen, die sich diesem Typ der „Maschinenethik“ verschrieben haben, arbeitet nicht an der Maschine oder an der Software sondern am Wandel des Menschenbildes. Die exzessivste Form davon stellen die „Transhumanisten“ dar, die unter dem Vorwand der biologischen Evolution die Verknüpfung von Organischem und Digitalem anstreben. Letztlich soll das ewige Leben dadurch erreicht werden, dass ein digitalisiertes menschliches Gehirn mit Bewusstsein in einer Hardware fort“lebt“.
In der Bundesrepublik haben bestimmte „Ethiker“ extra eine Partei gegründet. Ihre – vor allem männlichen – Vertreter versuchen, über vorhandene hiesige Organisationen und über honorige Stiftungen ihre ideologisierten, teilweise aus den USA kopierten Konzepte zu verbreiten.

Einige der amerikanischen Transhumanisten setzen für das Menschenbild der Zukunft drei zentrale Begriffe: männlich, weiß, digital. Dieser Typ von „Maschinenethik“ revidiert das Menschenbild der UN-Charta der Menschenrechte.

 

„Maschinenethik“ (Teil III): Ein Versuch zur Rettung der interdisziplinären Ethik

Nach zwei deutlichen Kritiken an der aufgebrochenen Debatte über sogenannte „Maschinenethik“ soll hier aber auch ein begrüßenswerter Denkansatz gewürdigt werden. Kluge Frauen und Männer aus Sozialwissenschaften, Informatik, Neurobiologie, Philosophie und Ethik greifen das ethische Verhalten von Personen auf, die Software entwickeln und Software anwenden. Sie benutzen dabei verwirrender Weise ebenfalls das Wort „Maschinenethik“, jedoch in einem völlig anderen Sinne.

Diese Gruppe spricht sich zu Recht dafür aus, dass die Softwareentwicklung wie auch die Softwareanwendung nach ethischen und humanen Kriterien erfolgen sollen. Sie sprechen daher von der ethischen Verantwortung der Entwickelnden und der Anwendenden für die Mensch-Technik-Interaktion. Sie reden nicht von der Ethik in der Maschine sondern vom ethischen Handeln des Menschen mit Hilfe der Technik gegenüber anderen Menschen. Ethik wird dem Menschen nicht der Maschine, nicht der Software zugeordnet.

Dieser Ansatz ist außerordentlich begrüßenswert und folgt der Tradition problemorientierter Technikfolgenforschung. Soziale, ethische und humane Technikgestaltung setzt vorausschauend bereits in der Phase der Technikkonzeption (Technikgenese) an. Sie betont die „Handlungsträgerschaft Mensch“ und lehnt eine nicht-gestaltete „Handlungsträgerschaft Software-Systeme“ aus ethischen Gründen grundsätzlich ab.

Die Kontroverse um „Maschinenethik“ bedarf wie gezeigt sowohl der eindeutigen Differenzierung in unterschiedliche Ansätze wie auch der klaren, tendenzkundigen, inhaltlichen Positionierung zugunsten des Humanum.

 

Digitalisierung für alle

„Bringt die Einführung von E-Government größere Spielräume für bürgerschaftliche Beteiligungen in den Kommunen?“ – Diese Frage diskutierte der Kongress „Digitalisierung für alle“ am 5. und 6. Juni 2018 in der Evangelischen Akademie Bad Boll. Die Teilnehmenden der Veranstaltung sprachen sich für einen menschenzentrierten Ansatz aus, statt einer nur technikgetriebenen Vorgehensweise.

„Die Digitalisierung muss in die Demokratie eingebettet werden und nicht umgekehrt“, erklärte das Netzwerk „Sozialer Zusammenhalt in digitaler Lebenswelt“, das zu dem öffentlichen Ratschlag eingeladen hatte. Der Kongress setzte sich wenige Tage vor der Verabschiedung des neuen E-Government-Gesetzes im Landtag für mehr Bürgerpartizipation auf kommunaler Ebene ein. Das Netzwerk „Sozialer Zusammenhalt in digitaler Lebenswelt“ wurde von zivilgesellschaftlichen Gruppen, kirchlichen Verbänden, politischen Stiftungen und Gewerkschaften gegründet.

Der Mensch müsse im Zentrum stehen. Technik habe dienende Funktionen. Mit dieser Haltung beriet der Kongress Empfehlungen für mehr Bürgerbeteiligung, soziale Innovationen im Übergang Schule-Beruf, Schutz der Privatsphäre und Inklusion von Menschen mit Beeinträchtigungen. Das Netzwerk wird seine Arbeit fortsetzen.

„Mit unserem Netzwerk wollen wir dem Prozess der Digitalisierung mehr soziale, ethische und solidarische Grundwerte unterlegen. Unsere Gesellschaft braucht nicht eine technik- oder nur marktzentrierte Umsetzung der digitalen Transformation sondern einen nachhaltigen Weg, der allen Zugang und Zugänglichkeit verschafft.“ Digitalisierung gelinge dann, wenn sie auf Demokratie, Privatheitsschutz, Integration und Inklusion basiere. „Wir wollen mehr Mitbestimmung durch Bürgerinnen und Bürger.“

Die digitale Transformation der Wirtschafts- und Arbeitswelten verändere das Verhältnis von Mensch und Technik: „Technik muss dem Menschen dienen. Der Mensch darf nicht der bloße Assistent digitaler Technik werden. Eine durch Digitalisierung und Virtualisierung sich wandelnde Zivilgesellschaft benötigt einen öffentlichen und beteiligungsorientierten Diskurs über moderne Ethik und die Stellung des Menschen in technikgestützten Lebenswelten.“

Das Netzwerk setze sich daher für die stärkere Beteiligung von Bürgerinnen und Bürgern bei der Ausgestaltung des Wandels ein: „Um die Vorteile der Digitalisierung für die Gesellschaft absichern zu können, brauchen wir alle eine Stärkung unseres Rechts auf informationelle Selbstbestimmung, einen intensiveren Schutz der Privatheit, einen umfassenden Daten- und Identitätsschutz, denn dieser Schutz der Privatheit ist ein wesentlicher Baustein des Fundaments unserer Demokratie.“

 

„Hinter diesen Augen sitzt kein Ich“

Wer kennt nicht die Bilder und Szenen, wenn auf Technologiemessen ein begeisterter Mensch dem „süßen“ kleinen Roboter „Pepper“ über den Kopf streicht, ihm wie einem Kind in die „Augen“ schaut, als ob dieses vermeintliche Geschöpf dann dankend zurücklächelt. Der Mensch sucht Interaktion und projiziert Interaktionsfähigkeit auf den mobilen Blechhaufen.

Einem solchen Menschen gab der nachdenkliche Technikethiker Karsten Weber einen ernüchternden Rat mit auf den Weg: „Hinter diesen Augen sitzt kein Ich.“ Mit dieser Äußerung wollte der Wissenschaftler aus Regensburg jenen widersprechen, die in der momentanen Roboterentwicklung schon Maschinen „mit Bewusstsein“ zu erkennen glaubten. Davon sei man mehr als weit entfernt, wenn dieses Ziel überhaupt je erreicht werden könnte.

Die Projektion menschlicher Eigenschaften auf die Maschinen sei unangebracht und falsch. Weder menschenähnliche Roboter noch selbst fahrende Autos besäßen jene „Autonomie“, die es ihnen erlauben würde, selbst ethische bzw. normative Regeln zu setzen. Dies sei und bleibe Aufgabe des Menschen.

Auf einer Tagung zum Thema „Künstliche Intelligenz“ der Integrata-Stiftung und des Tübinger Weltethos-Institutes kritisierte Weber den unverantwortlichen Umgang mit schwerwiegenden moralischen und ethischen Fragen bei der Entwicklung der KI. Die „Anthropomorphisierung von Maschinen“ (Übertragung menschlicher Eigenschaften auf Maschinen) sei ein gravierender Fehlschluss.

Der Technikethiker verwies wissenschaftlich methodisch präzise auf die Erfahrungen mit Technikentwicklungen der letzten Jahrzehnte. Technik sei nie neutral, sie sei immer wertebasiert, wertegebunden und wertebeladen. Dies bedeute, dass bei der Konzipierung technischer Innovationen immer bewusst oder unbewusst normative Überzeugungen, Werte, Vorurteile, Interessen in die Technikentwicklung einfließen. Dies schließe ein, dass immer wieder ein Hinterfragen vorhandener Technik stattfinden müsse, da sich parallel zur Technikentwicklung auch gesellschaftliche Werte und Lebensstile (zum Beispiel Geschlechterrollen) ständig veränderten.

Diese Wertegebundenheit technischer Konzeptionen müsse – so die Diskussion – gerade bei einem besonders empfindlichen Teil der KI, nämlich der Nutzung von „selbstlernenden Software-Systemen“, deutlichere Berücksichtigung finden. Denn auch hier gilt: Hinter diesen Algorithmen sitzt kein Ich.