„Maschinenethik“ (Teil I): Annäherungen an einen schillernden und widersprüchlichen Begriff

Wer sich mit der Virtualisierung und Digitalisierung der Arbeitswelten befasst, stolpert schnell über die Erkenntnis, dass es neben den handfesten Veränderungen für arbeitende Menschen auch um Drittmittelmärkte, um Strategien zur Erlangung von staatlichen Fördermitteln und um zeitweise substanzlose Marketingauftritte geht. Dieses Auseinanderklaffen von realen Notwendigkeiten und bloßen Akquise-Shows begegnet den kundigen Betrachtenden nun auch auf der Bühne des Wortes „Maschinenethik“.

Wer sich unkundig in die Sprachwelten der „Maschinenethik“ vorwagt, zuckt beeindruckt zurück. Da treten wissenschaftliche Teams auf, die sich mit vermeintlich spektakulären Erkenntnissen aufmachen, Fördermittel aus den staatlichen Händen auf europäischer, Bundes- oder Landes-Ebene zu ergattern. Da werden „Wirklichkeiten“ beschrieben, die keine sind, um Aufmerksamkeit zu erheischen. So schreibt ein akademischer Kopf, dass das zentrale Zukunftsthema der Digitalisierung und Virtualisierung die Herausforderung sei, dass Maschinen nun Ethik und Moral besitzen und ausführen könnten.

Die Maschine wird zum bewusstseinsfähigen Subjekt ernannt, das durch Datensammeln und Auswertungen Bewusstsein, Reflexionskompetenz, Ethik und Moral erlangen könnte. Die vermeintliche „Künstliche Intelligenz“ verfügt in solchen Beschreibungen alsbald über „Künstliche Ethik“ oder noch besser – wie ein nach Aufmerksamkeit strebender Ethiker schreibt – über „Künstliche Tugend“.

Klar, wenn man ein solches Szenario den zuständigen Vergabestellen der Ministerien einreden kann, hat man den sechs- bis siebenstelligen Betrag schon gewonnen. Wer wollte angesichts solcher Dämonen an der Wand der Zukunft nicht den Steuer-Geldbeutel für kulturelle Prävention öffnen.

Bei allem Respekt vor Frauen und Männern aus Ingenieur- und Informationswissenschaften muss man laut „Halt“ rufen! Ein solches Verständnis und Szenario von „Maschinenethik“ ist schlicht inakzeptabel. Weder kann ein physischer Blechhaufen noch ein digitaler Software-Haufen im aufgeklärt sozialwissenschaftlichen, philosophischen und menschenrechtlichen Sinne Bewusstsein im Sinne des Humanum erreichen. Ein solches Gerede von „Maschinenethik“ will Aufmerksamkeit, will vorsätzlich verunsichern und den Golem herbeireden.

Betrachtet man die technologische Wirklichkeit des Status quo und die Arbeiten in Laboren, dann lässt sich zweifellos feststellen, dass hier Gigantisches geleistet wurde. Brillante Mathematik und hervorragende Informatik haben Software-Systeme (allen voran „Autonome Software-Systeme“) hervorgebracht, die in glänzender Weise zur Verfahrens- und Prozessteuerung geeignet sind. Diese Systeme spiegeln dem Menschen vor, dass die Software „denken“ könnte und der Mensch verhält sich entsprechend, um diese Projektion zu vervollkommnen.

Das Problem sitzt vor (!) dem Bildschirm. Der Mensch hält das Agieren der Software für Denken und orientiert sein eigenes Verhalten gemäß dieser Projektion. Nicht das nicht vorhandene Bewusstsein in (!) der Maschine ist zu hinterfragen, sondern das Naive im Bewusstsein des Menschen stellt die Herausforderung dar.

Gerade für einen konstruktiven und innovativen Umgang mit neuen digitalen Lösungen sollten wir uns nicht in die Sackgassen der Hollywood-Filme drängen lassen: Sogenannte „Künstliche Intelligenz“ mit Bewusstsein gibt es nicht. Auch nicht in naher Zukunft. Was es gibt, sind aufregend gute mathematische Anwendungen mit enormen Potenzialen. Diese gilt es, engagiert demokratisch und sozial zu gestalten. Lassen wir uns nicht von vermeintlichen „Maschinen-Ethikern“ davon abhalten.

 

„Maschinenethik“ (Teil II): Der Wandel des Menschenbildes

Wie oben beschrieben wollen die Anhänger der „Maschinenethik“ in Geräten und in der Software menschenähnliches reflexionsfähiges Bewusstsein entdeckt haben. Diese Annahme fußt auf einer Voraussetzung, die es dringend zu hinterfragen gilt. Wenn Maschinen Ethik und Bewusstsein besitzen, welches Verständnis von Ethik und Bewusstsein wird dabei zugrunde gelegt?

Wir kennen dieses Phänomen aus der Verbindung von Robotik-Entwicklung und Kinderpsychologie bzw. Kinderpädagogik. Die Forschungsteams, die menschenähnlichen (humanoiden) Robotern Bewegungen beibringen, greifen dabei auf biografisch-soziale Lernprozesse von Kleinkindern zurück. Wie lernen Kinder? Wir greifen und tasten sie? Wie wiederholen sie Bewegungen? Bei diesem Ansatz reduzieren die Robotik-Teams die Verhaltensmuster der Kleinkinder, um die abstrahierten Vorgänge technisch nachbilden zu können. Damit Roboter „lernen“ können, muss das Verhalten eines Kindes vereinfacht und reduziert werden. Solange sich alle Beteiligten darüber im Klaren sind und wissen, dass das tatsächliche und wirkliche  Verhalten von Kindern viel komplexer ist, besteht kein Risiko für Ideologisierungen.

Die Debatte um „Maschinenethik“ ist mit der Adaption des Verhaltens von Kindern zur Implementierung in Roboter methodisch vergleichbar. Zugespitzt formuliert bedeutet dies: Um in einem mathematisierten Software-Haufen „Bewusstsein“ zu entdecken, muss das Verständnis von Bewusstsein so heruntergefahren und reduziert werden, dass es technisch nachbildbar wird. Hinter der Frage, ob Maschinen eine Ethik und eine  Moral besitzen können, verbirgt sich die gravierende Frage, wie sich das Menschenbild und das Humanum anpassen müssen, um für solch eine „Maschinenethik“ passend zu sein.

Ein gewisser Teil derjenigen, die sich diesem Typ der „Maschinenethik“ verschrieben haben, arbeitet nicht an der Maschine oder an der Software sondern am Wandel des Menschenbildes. Die exzessivste Form davon stellen die „Transhumanisten“ dar, die unter dem Vorwand der biologischen Evolution die Verknüpfung von Organischem und Digitalem anstreben. Letztlich soll das ewige Leben dadurch erreicht werden, dass ein digitalisiertes menschliches Gehirn mit Bewusstsein in einer Hardware fort“lebt“.
In der Bundesrepublik haben bestimmte „Ethiker“ extra eine Partei gegründet. Ihre – vor allem männlichen – Vertreter versuchen, über vorhandene hiesige Organisationen und über honorige Stiftungen ihre ideologisierten, teilweise aus den USA kopierten Konzepte zu verbreiten.

Einige der amerikanischen Transhumanisten setzen für das Menschenbild der Zukunft drei zentrale Begriffe: männlich, weiß, digital. Dieser Typ von „Maschinenethik“ revidiert das Menschenbild der UN-Charta der Menschenrechte.

 

„Maschinenethik“ (Teil III): Ein Versuch zur Rettung der interdisziplinären Ethik

Nach zwei deutlichen Kritiken an der aufgebrochenen Debatte über sogenannte „Maschinenethik“ soll hier aber auch ein begrüßenswerter Denkansatz gewürdigt werden. Kluge Frauen und Männer aus Sozialwissenschaften, Informatik, Neurobiologie, Philosophie und Ethik greifen das ethische Verhalten von Personen auf, die Software entwickeln und Software anwenden. Sie benutzen dabei verwirrender Weise ebenfalls das Wort „Maschinenethik“, jedoch in einem völlig anderen Sinne.

Diese Gruppe spricht sich zu Recht dafür aus, dass die Softwareentwicklung wie auch die Softwareanwendung nach ethischen und humanen Kriterien erfolgen sollen. Sie sprechen daher von der ethischen Verantwortung der Entwickelnden und der Anwendenden für die Mensch-Technik-Interaktion. Sie reden nicht von der Ethik in der Maschine sondern vom ethischen Handeln des Menschen mit Hilfe der Technik gegenüber anderen Menschen. Ethik wird dem Menschen nicht der Maschine, nicht der Software zugeordnet.

Dieser Ansatz ist außerordentlich begrüßenswert und folgt der Tradition problemorientierter Technikfolgenforschung. Soziale, ethische und humane Technikgestaltung setzt vorausschauend bereits in der Phase der Technikkonzeption (Technikgenese) an. Sie betont die „Handlungsträgerschaft Mensch“ und lehnt eine nicht-gestaltete „Handlungsträgerschaft Software-Systeme“ aus ethischen Gründen grundsätzlich ab.

Die Kontroverse um „Maschinenethik“ bedarf wie gezeigt sowohl der eindeutigen Differenzierung in unterschiedliche Ansätze wie auch der klaren, tendenzkundigen, inhaltlichen Positionierung zugunsten des Humanum.