Licht und Schatten im sogenannten „KI-Diskurs“

Als vor nahezu 35 Jahren an vielen Universitäten das Fach Informatik eingerichtet wurde, gab es aus heutiger Sicht geradezu merkwürdige Diskussionen. Der Weg der Fakultätsgründungen spülte nicht selten einen besonderen Typ des männlichen Forscherdrangs auf die Lehrstühle. Dieser Typus verbat sich die Einmischung von Seiten der Sozialwissenschaften und wehrte sich gegen Anfragen aus der Zivilgesellschaft. Diese Einmischungen würden zum einen die Freiheit der Wissenschaft beeinträchtigen. Zum anderen seien sie in sich unlogisch, da die Informatik nur Grundlagenforschung betreibe und keinen direkten Anwendungsbezug zur Gesellschaft habe. Mit dieser Abwehrhaltung wollte sich die (damalige) konstruktive Kritik an der (damaligen) Informatik nicht zufrieden geben. Nach kurzer Zeit entfalteten sich an mehreren Hochschulen Forschungszusammenhänge und Institute unter dem Namen „Informatik und Gesellschaft“.

Auch der heutige Verlauf des Diskurses um die sogenannte „Künstliche Intelligenz“ bringt vergleichbare Momente von Licht und Schatten hervor. Es ist ermutigend festzustellen, dass in den Forschungen und Entwicklungen modernster Softwaresysteme zumeist offene Gesprächsverhältnisse vorherrschen und eine große Bereitschaft vorzufinden ist, mit zivilgesellschaftlichen Gruppen in den Dialog zu treten. Dennoch scheinen auch bestimmte Haltungen des Sich-Abgrenzens und des Denkens-in-Elfenbeintürmen zurückzukehren. Wenden wir uns jüngsten Beispielen zu:

Immer mehr schiebt sich in der aktuellen Debatte über die Gestaltung algorithmischer Entscheidungssysteme die Frage in den Vordergrund, ob es besondere Zulassungskriterien für die Nutzung und Anwendungen solcher Algorithmen und deren algorithmischer Entscheidungszusammenhänge geben sollte. Aus dem Forum Soziale Technikgestaltung heraus kommt der Vorschlag nach einem „mitbestimmten Algorithmus“. Dazu haben die Diskussionen mit Kolleginnen und Kollegen dreißig Kriterien für Zulassungen ergeben. Beim Versuch, diese Kriterien, diese Vorschläge aus dem Kreis der Zivilgesellschaft der „KI“-Forschungsgemeinde vorzustellen, kam uns das Argument entgegen, dass die Forschung dieser „KI“-Gemeinde lediglich Grundlagenforschung betreibe und diese Forschung keinen direkten gesellschaftlichen Anwendungsbezug ausweise. Das Forum solle lieber mit der Anwendungsforschung reden.

Über eine solche Aussage kann man nur den Kopf schütteln. Davon abgesehen, dass der Übergang zwischen Grundlagenforschung und Anwendung im Feld moderner Softwareforschung geradezu fließend ist, und dass gesellschaftliche Anforderungen zum frühest möglichen Zeitpunkt in der Arbeit der Forschung Berücksichtigung finden sollten, schadet eine solche Argumentation vor allem dem Anliegen der „KI“-Community selbst. Sie unterminiert die eigene Glaubwürdigkeit. Wer die letzten rund vierzig Jahre Forschung in der Technikfolgenabschätzung und in der Technikfolgenforschung betrachtet, stellt zudem unumwunden fest, dass der Abgrenzungsschritt („Grundlagenforschung“) auch einer modernen Methodendiskussion nicht standhält.

Mit einem weiteren Kopfschütteln muss man einen anderen Vorgang betrachten. Da hat sich ein kompetenter Kopf der verdienstvollen Aufgabe zugewandt, die nationale und internationale Diskussion zu durchforsten, um zu prüfen, welche Anforderungen akademische Autorinnen und Autoren an die Entwicklung neuer sogenannter „KI-Anwendungen“ formulieren. Erfreulich war im Ergebnis, dass die Anforderung nach Schutz der Privatheit den Spitzenplatz einnahm. Es folgten weitere – auch aus gewerkschaftlicher Sicht – gute Kriterien. Auf die Frage aber, warum nicht auch die vielfältigen Anforderungen aus der Zivilgesellschaft in diese wertende Übersicht aufgenommen wurden, kam die geradezu frappierende Antwort, dass er mit seinem Aufsatz im Wettbewerb mit internationalen Wissenschaftlern stehe und da passe der zivilgesellschaftliche Ansatz nicht hinein.

Zugegeben, die beschriebenen Beispiele zum Kopfschütteln sind Einzelfälle. Viele Akteure aus der Forschung würden über besagtes Verhalten selbst den Kopf schütteln. Dennoch ist es für die zivilgesellschaftliche Seite das Gegenteil von Ermutigung.

 

Wunderliches aus dem „KI“-Wunderland

Ist es ein vorübergehendes kulturelles Phänomen oder ein neuer aktiv begünstigter Trend? Immer häufiger findet sich in Veranstaltungen ein ähnlicher Typus von Personen zur Diskussion eines gemeinsamen Themas zusammen: Es sind Männer, ältere Männer über siebzig, zumeist ehemalige Ingenieure und Informatiker, die heute im aktiven Unruhestand sind. Sie unterstreichen die zunehmende Bedeutung der „künstlichen Intelligenz“ und beschwören die Macht und Potenziale der Technik. Drohszenarien und Hoffnungsträume gleichen Inhalts machen die Runde. Strittig ist im Wesentlichen der Zeitfaktor: Wird die „KI-Superintelligenz“ die Macht über die Menschheit in dreißig, siebzig oder neunzig Jahren übernehmen? Das Ergebnis sei jetzt schon klar. Die „Superintelligenz“, die sogenannte „starke KI“ käme und sei nicht mehr aufzuhalten. Gepaart wird der technikzentrierte Monolog mit dem Hinweis auf die notwendige „evolutionäre“, biologische Veränderung des Menschen. Das neue Menschenbild sieht die Technik nicht als hilfreiche Assistenz für den Menschen, sondern den Menschen als körperliche Übergangsstation zum dauerhaften digital-virtuellen Weiterleben eines Ichs.

Mag sein, dass manche Leserin, mancher Leser, diese Beschreibungen als esoterischen Wunderglauben oder als Überreste später Männerträumereien ansieht. Leider meinen es diese genannten Personen ernst. Sie wollen die Öffentlichkeit zugunsten ihres Zukunftsdiskurses missionieren und – zumindest ein Teil von ihnen – aktiv bejahend dafür werben. Hält man dieser Gruppe vor, sie würden damit transhumanistisches Gedankengut transportieren und rechtliche Grundprinzipien in Frage stellen, reagieren sie gelassen. Sie seien keine Ideologen und im Übrigen würde die Erbschaft unserer bisherigen ethischen Spielregeln durch den praktischen Utilitarismus (die sich einschleichende Form praktischen Nützlichkeitshandelns, auch wenn man wisse, dass man jenseits rechtlicher Regeln sei) de facto verändert und nivelliert. Sie fordern Freiheit, Freiheit für die Wissenschaft, Freiheit für die Technik, Freiheit für den Roboter, Freiheit für den Wandel.

Solange diese Männerrunden nur beim Bier Träume austauschen, könnte man zurückhaltend und gelassen bleiben. Es ändert sich allerdings abrupt, wenn solche Männerrunden sich prominente Redner als Gäste einladen, die die rechtsstaatlichen Spielregeln als neuen Gegner ausgeben. Einer dieser Prominenten gab von sich, dass er den zentralen Gegner der „Künstlichen Intelligenz“ gefunden habe. Es sei die EU-Datenschutzgrundverordnung!

Diese Aussage erfolgte einige Wochen nachdem die Datenschutzbeauftragten der Republik in ihrer „Hambacher Erklärung“ im Mai 2019 die zentrale Bedeutung der EU-DSGVO für die rechtsstaatliche Bändigung von „KI“-Anwendungen unterstrichen. Dort heißt es unter anderem:

Systeme der Künstlichen Intelligenz (KI) stellen eine substanzielle Herausforderung für Freiheit und Demokratie in unserer Rechtsordnung dar. Entwicklungen und Anwendungen von KI müssen in demokratisch-rechtsstaatlicher Weise den Grundrechten entsprechen. Nicht alles, was technisch möglich und ökonomisch erwünscht ist, darf in der Realität umgesetzt werden. Das gilt in besonderem Maße für den Einsatz von selbstlernenden Systemen, die massenhaft Daten verarbeiten und durch automatisierte Einzelentscheidungen in Rechte und Freiheiten Betroffener eingreifen. Die Wahrung der Grundrechte ist Aufgabe aller staatlichen Instanzen. Wesentliche Rahmenbedingungen für den Einsatz von KI sind vom Gesetzgeber vorzugeben und durch die Aufsichtsbehörden zu vollziehen. Nur wenn der Grundrechtsschutz und der Datenschutz mit dem Prozess der Digitalisierung Schritt halten, ist eine Zukunft möglich, in der am Ende Menschen und nicht Maschinen über Menschen entscheiden. […]“

 

Der künstliche Mensch? Menschenbilder im 21. Jahrhundert

Unter diesem Titel haben sich Aktive aus dem Forum Soziale Technikgestaltung und aus dem Kreis der Partner zusammengefunden, um im Angesicht der sogenannten „Künstlichen Intelligenz“ Beiträge aus der Perspektive der Gewerkschaften, der Sozialwissenschaften, der Philosophie, der Religionskritik und der Jurisprudenz über den Mensch zu verfassen. Nicht die Technikanalyse steht im Vordergrund sondern die Frage nach der Rolle des Menschen und dem Menschenbild. Die Beiträge wurden zusammengeführt und als 125seitiger Schwerpunkt in dem mehr als 260 Seiten umfassenden Journal „Latenz“ im Oktober 2019 (Latenz 04/2019) veröffentlicht.

Ist die Frage nach einem ethischen Menschenbild ein überholter Romantizismus oder eine soziale Notwendigkeit der Aufklärung für den Zusammenhalt von Gesellschaften? Was sind die zukunftsweisenden Erbschaften einer Jahrhunderte übergreifenden Diskussion um das Bild des Menschen? Worauf basiert ein solidarisches Menschenbild? Welches Menschenbild transportieren die Bürger- und Menschenrechte? Wie lässt sich vermeiden, dass einseitig gesetzte und in Technik implementierte Profile von digitalen Figuren den demokratischen Regeln und Rechten der Vielfalt, der Integration und Inklusion zuwiderlaufen? Welche Konsequenzen haben die aktuellen technischen wie gesellschaftlichen Transformationsprozesse für eine philosophische Anthropologie?

Mit seinem Beitrag „Menschenbilder, Visionen, Normen: Orientierungen für ‚Gute Arbeit mit KI‘“ greift der Ver.di-Gewerkschafter Lothar Schröder in die Kontroverse um die „Künstliche Intelligenz“ ein. Aus arbeitsweltlicher Perspektive ermutigt er zur Weiterentwicklung der Humanisierung der Arbeit durch die Selbstbestimmung des Menschen: „Den Menschen als digitale Maschine zu deuten und ihn entsprechend programmierten, ‚lernenden‘ Systemen auszusetzen oder gar unterzuordnen, muss zwangsläufig zu inhumanen und inakzeptablen Resultaten führen.“

Für das „Recht auf Irrationalität“ angesichts der „zunehmenden Unbewohnbarkeit von Fiktionen“ spricht sich der Soziologe Stefan Selke aus. In Hinblick auf Big Data und die Verschiebung des Humanum durch erweiterte Digitalisierungen plädiert der Autor für die „selbstbestimmte Erzählbarkeit.“ Der Tübinger Philosoph Helmut Fahrenbach geht der anthropologischen Frage im Denken von Ernst Bloch nach. Unter dem Titel „Das Leben künstlich oder menschlich machen?“ übt Annette Schlemm philosophische Kritik an den Denkgebäuden des Transhumanismus. Sie verteidigt die zivilgesellschaftliche Vielfalt gegen technikgläubigen Reduktionismus. In brillanter Schärfe zeigt uns der Jurist Ingo Müller die Relevanz der Grundrechte auf und, „dass im Zentrum unserer Werteordnung die Grundrechte stehen, nicht Staat oder Kirche, sondern der Mensch“.

In einem Interview von Johanna Di Blasi kommt der Filmemacher Alexander Kluge zu Wort. Mit seiner Formel von der „Achtung vor Robotern“ setzt er sich mit der „sozialen Intelligenz der Maschinen und Goethes Homunculus, der klüger ist als der Mensch“ auseinander. Aus der Schweiz meldet sich Kurt Seifert mit einem philosophisch-politischen Text zu Wort: „Was fehlt? Transhumanismus als Anti-Utopie“. Mit der Widersprüchlichkeit und der historischen Belastetheit des Terminus „Der neue Mensch“ verknüpft der Autor frühe Diskussionen im Russland der zwanziger Jahre mit späteren autoritären Terrorformen Stalins und Mao Tse Tungs. Gegen eine einseitige Aufhübschung der Debatte um die sogenannten „Künstliche Intelligenz“ nimmt Welf Schröter in seiner pointierten nachdenklichen Polemik „Warum der Begriff ‚KI‘ nicht als ‚künstliche‘ sondern nur als ‚kleine‘ oder ‚keine Intelligenz‘ ausgeschrieben werden sollte“ aus gestaltungsspezifischer Sicht Stellung. Anknüpfend hat sich der Sozialwissenschaftler György Széll auf den Weg gemacht, eine umfangreiche, wertende Sammelrezension zu „KI“-Publikationen zu erstellen. Unter dem Titel „Homo sapiens demens“ bewegt er sich durch die Literatur.

Buchangaben: Latenz – Journal für Philosophie und Gesellschaft, Arbeit und Technik, Kunst und Kultur. Ausgabe 04|2019. Der Künstliche Mensch? Menschenbilder im 21. Jahrhundert. Hrsg. von Irene Scherer und Welf Schröter. Redaktion: Matthias Mayer, Mathias Richter, Inka Thunecke, Irene Scherer und Welf Schröter. 2019, 264 Seiten, 34,00 Euro, ISBN 978-3-89376-185-2.

 

„Maschinenethik“ (Teil I): Annäherungen an einen schillernden und widersprüchlichen Begriff

Wer sich mit der Virtualisierung und Digitalisierung der Arbeitswelten befasst, stolpert schnell über die Erkenntnis, dass es neben den handfesten Veränderungen für arbeitende Menschen auch um Drittmittelmärkte, um Strategien zur Erlangung von staatlichen Fördermitteln und um zeitweise substanzlose Marketingauftritte geht. Dieses Auseinanderklaffen von realen Notwendigkeiten und bloßen Akquise-Shows begegnet den kundigen Betrachtenden nun auch auf der Bühne des Wortes „Maschinenethik“.

Wer sich unkundig in die Sprachwelten der „Maschinenethik“ vorwagt, zuckt beeindruckt zurück. Da treten wissenschaftliche Teams auf, die sich mit vermeintlich spektakulären Erkenntnissen aufmachen, Fördermittel aus den staatlichen Händen auf europäischer, Bundes- oder Landes-Ebene zu ergattern. Da werden „Wirklichkeiten“ beschrieben, die keine sind, um Aufmerksamkeit zu erheischen. So schreibt ein akademischer Kopf, dass das zentrale Zukunftsthema der Digitalisierung und Virtualisierung die Herausforderung sei, dass Maschinen nun Ethik und Moral besitzen und ausführen könnten.

Die Maschine wird zum bewusstseinsfähigen Subjekt ernannt, das durch Datensammeln und Auswertungen Bewusstsein, Reflexionskompetenz, Ethik und Moral erlangen könnte. Die vermeintliche „Künstliche Intelligenz“ verfügt in solchen Beschreibungen alsbald über „Künstliche Ethik“ oder noch besser – wie ein nach Aufmerksamkeit strebender Ethiker schreibt – über „Künstliche Tugend“.

Klar, wenn man ein solches Szenario den zuständigen Vergabestellen der Ministerien einreden kann, hat man den sechs- bis siebenstelligen Betrag schon gewonnen. Wer wollte angesichts solcher Dämonen an der Wand der Zukunft nicht den Steuer-Geldbeutel für kulturelle Prävention öffnen.

Bei allem Respekt vor Frauen und Männern aus Ingenieur- und Informationswissenschaften muss man laut „Halt“ rufen! Ein solches Verständnis und Szenario von „Maschinenethik“ ist schlicht inakzeptabel. Weder kann ein physischer Blechhaufen noch ein digitaler Software-Haufen im aufgeklärt sozialwissenschaftlichen, philosophischen und menschenrechtlichen Sinne Bewusstsein im Sinne des Humanum erreichen. Ein solches Gerede von „Maschinenethik“ will Aufmerksamkeit, will vorsätzlich verunsichern und den Golem herbeireden.

Betrachtet man die technologische Wirklichkeit des Status quo und die Arbeiten in Laboren, dann lässt sich zweifellos feststellen, dass hier Gigantisches geleistet wurde. Brillante Mathematik und hervorragende Informatik haben Software-Systeme (allen voran „Autonome Software-Systeme“) hervorgebracht, die in glänzender Weise zur Verfahrens- und Prozessteuerung geeignet sind. Diese Systeme spiegeln dem Menschen vor, dass die Software „denken“ könnte und der Mensch verhält sich entsprechend, um diese Projektion zu vervollkommnen.

Das Problem sitzt vor (!) dem Bildschirm. Der Mensch hält das Agieren der Software für Denken und orientiert sein eigenes Verhalten gemäß dieser Projektion. Nicht das nicht vorhandene Bewusstsein in (!) der Maschine ist zu hinterfragen, sondern das Naive im Bewusstsein des Menschen stellt die Herausforderung dar.

Gerade für einen konstruktiven und innovativen Umgang mit neuen digitalen Lösungen sollten wir uns nicht in die Sackgassen der Hollywood-Filme drängen lassen: Sogenannte „Künstliche Intelligenz“ mit Bewusstsein gibt es nicht. Auch nicht in naher Zukunft. Was es gibt, sind aufregend gute mathematische Anwendungen mit enormen Potenzialen. Diese gilt es, engagiert demokratisch und sozial zu gestalten. Lassen wir uns nicht von vermeintlichen „Maschinen-Ethikern“ davon abhalten.

 

Gibt es eine „soziale Künstliche Intelligenz“?

Diese Frage stellte jüngst ein IBM-Betriebsrat auf einer gemeinsamen Veranstaltung des Betriebsräte-Netzwerkes ZIMT, der IG Metall Heidelberg und des Forum Soziale Technikgestaltung. Sollen wir die „KI“ eher verhindern oder besser einer Regulation unterwerfen? Der Kollege sprach Klartext: Man solle seine Kraft nicht dafür verwenden, Unvermeidbares zu verhindern, als vielmehr beobachten, verstehen, Folgen abschätzen, bewerten und dementsprechend ein verbindliches „Regelwerk“ aufbauen.
Entscheidend sei, dass man als Betriebsrätin und Betriebsrat, als Personalrätin und Personalrat im besten Sinne des Wortes „am Ball bleibt“: „Wir müssen verstehen, was möglich ist“, um gestalterisch handeln zu können.

Für die weitergehende Debatte über „Künstliche Intelligenz“ (KI) erscheint es ergänzend sinnvoll zu erkennen, dass es sich bei der momentanen öffentlichen Verwendung des Kürzels „KI“ – ähnlich wie bei der Nutzung des Begriffs „Industrie 4.0“ – um eine zumeist oberflächliche Marketing-Sprache handelt. Menschen mit wenigen Kenntnissen über „KI“ soll diese Technikverknüpfung als verzaubernde Welterlösungsformel vermittelt werden. Was Ende der 80iger Jahre die „Schlanke Produktion“ war, was Mitte der 90iger das Wort „Multimedia“ besagte, was ab 2011 die Marke „Industrie 4.0“ werden sollte, dies geschieht derzeit mit dem Begriff „Künstliche Intelligenz“.

Der Begriff wird wie eine Art Breitbandantibiotikum verkündet. „KI“ könne alles, mache alles und bestimme die Zukunft. Wohlmeinende Diskutanten verstärken diesen Trend, indem sie Horrorszenarien an die Wand malen und die Marketingwirkung verstärken. Die „KI“ übernehme die Herrschaft und vernichte 80 Prozent der Arbeitsplätze. Doch bei nüchterner Betrachtung befinden sich die im Alltag anwendbaren „KI“-Systeme – mit Ausnahme der bereits eingeführten bzw. in Einführung befindlichen „ASS“ – auf einem recht geringen Niveau. Was im Labor jenseits des Datenschutzes und jenseits der Mitbestimmung technisch in ausgewählten Vorgängen in geschützter Umgebung klappt, ist deshalb noch lange nicht für die Arbeitswelt, für Fertigung und Dienstleistung tauglich.

„KI“ verstanden als Software-Anwendung („Autonome Software-Systeme“ ASS) ist in strukturierten und geschlossenen Netzräumen erfolgreich und sehr produktiv. Doch „KI“ im offenen Netz hat seine Bewährungsprobe oftmals noch vor sich. Dies gilt umso mehr dann, wenn „KI“ mit Robotern und autonomen Fahrzeugen verbunden wird. Die Werbe- und Marketingsprache verkündet uns „Lösungen“ auf dem Niveau einer Show am Messestand.

Die Tatsache, dass zwischen Marketing-Ankündigung und tatsächlichem Nutzungsniveau eine große Differenz besteht, stellt für gewerkschaftliches Handeln eine Chance dar. Es gilt, das vorhandene Zeitfenster (Differenz zwischen jetzigem Marketing und erhoffter späterer Nutzung) zu einer aktiven „vorausschauenden Technikgestaltung“ (Schröter) zu nutzen. Um „KI“ so zu gestalten, dass sie klimaschonend, sozial, rechtskonform und beschäftigungssichernd wirkt, bedarf es ausgewiesener Gestaltungskompetenz. Diese auf der Seite der Beschäftigten zu stärken, sollten unsere Bemühungen gelten. Noch gibt es keine „soziale Künstliche Intelligenz“.

 

Die Souveränität des Menschen wahren

„Der Kunde in uns läuft dem Arbeitsgestalter in uns ständig hinter her.“ Mit diesem charmant widersprüchlichen Satz beschrieb jüngst ein führender Gewerkschafter die innere Zerrissenheit des arbeitenden Menschen. Was sollen wir wollen angesichts technischer Versprechen, die sich hinter dem Begriff „Künstliche Intelligenz“ (KI) verbergen? Gelingt es den Gestaltungansätzen von Betriebs- und Personalräten sowie Gewerkschaften, die Souveränität des Menschen zu wahren?

Mit „lernenden Systemen“ gelinge es erstmalig, dass die Lernfähigkeit ökonomisch besitzbar wird. Lernfähigkeit gerät zum technikinduzierten Wirtschaftsfaktor. Aus der Lernfähigkeit des Menschen leite sich die Lernfähigkeit „autonomer Software-Systeme“ ab, so die These. Dabei sollte intervenierend ein ethisches Prinzip gewerkschaftlichen Denkens greifen. Die Autonomie des Menschen in der Arbeit soll Vorrang behalten vor der Autonomie technischer Systeme.

Kann dieses Ziel dadurch erreicht werden, dass von gewerkschaftlicher Seite die Idee eines „sozialen Pflichtenheftes für Künstlicher Intelligenz“ aktiviert wird? Lastenhefte und Pflichtenhefte sind im Umfeld analoger, genau beschreibbarer und vorhersehbarer technischer Abläufe entstanden. „Selbstlernende Software“ und „autonome Software-Systeme“ entziehen sich dieser Beschreibbarkeit aber dann, wenn sie selbst „lernend“ sind.

Einen hervorragenden Gedanken stellt ein nur scheinbar überraschender Vorschlag dar: Um die Möglichkeiten der „KI“ akzeptabel zu machen, sollte die Effizienzdividende der „KI“ in Gestalt von freier Zeit „ausbezahlt“ werden. Mit dem Einsatz von „KI“ sollen Beschäftigte tageweise Freizeit erhalten. So entstünde zwischen Mensch und „KI“ eine besondere Zeit-Freundschaft. Ein begrüßenswerter konkreter Tagtraum!

 

Neu denken heißt interdisziplinär denken

Die zahlreichen Veranstaltungen zum Thema „Wirtschaft 4.0“, „Industrie 4.0“ oder „Arbeit 4.0“ zeigen in den meisten Fällen eine nicht unerwartete Gemeinsamkeit: Es ist das technikorientierte und oft technikzentrierte Denken. Mehr als dreißig Jahre Technikfolgenforschung und Technikfolgenabschätzung haben dagegen gezeigt, dass es in der Arbeits- und Wirtschaftswelt nichts gibt, das nur aus einem einzigen Blickwinkel heraus erklärbar ist. Diesem monokausalen Denken sollte ein Denken in Ganzheitlichkeit gegenüber gestellt werden. Auch viele gewerkschaftliche Diskurse stellen sich in diesem Sinne als noch zu eng angelegt dar.

Das Bedürfnis von Kolleginnen und Kollegen, etwas konkret Fassbares, etwas sinnlich Greifbares im Zusammenhang mit der digitalen Transformation geschildert zu bekommen, verleitet Vortragende zu einer allzu schnellen Flucht in die Technik. Technikzentriertes Denken aber ist altes Denken. Nicht die Technik stellt den Faktor von Innovationen dar, sondern die nichttechnischen Einflussgrößen entscheiden über Erfolg oder Misserfolg von Technikimplementierungen in Wirtschaft und Arbeitswelt.

Wer neu denken möchte, muss sich öffnen hin zu weiteren Aspekten und Gesichtspunkten des Wandels. Interessengeleitete Technikgestaltung benötigt die Blicke auf soziale Standards, auf Sozialpsychologie, auf Soziologie, auf Bildungswissenschaften, auf Arbeitsmedizin, auf Ethik, auf Gleichberechtigung, auf Demokratie und auf Philosophie. Wer nur über Technik reden kann, hat die Dimension des Wandels nicht verstanden.

Vor diesem Hintergrund ist die jüngste Rede des französischen Präsidenten Emmanuel Macron bemerkenswert. In seinem Statement zur französischen Strategie der verstärkten Entwicklung und Anwendung von „Künstlicher Intelligenz“ (KI) fordert er eine neue Perspektive für den KI-Aufbau. Macron will den interdisziplinären Ansatz als Basis der KI-Entwicklung unter aktiver Einbeziehung von Mathematik, Sozialwissenschaften, Technikwissenschaften und Philosophie.

In seinem Interview mit der Zeitschrift WIRED vom 31. März 2018 erläuterte er: „I want my country to be the place where this new perspective on AI is built, on the basis of interdisciplinarity: this means crossing maths, social sciences, technology, and philosophy. That’s absolutely critical. Because at one point in time, if you don’t frame these innovations from the start, a worst-case scenario will force you to deal with this debate down the line.“ Macron spricht sich für eine ethische und philosophische Gestaltung der KI-Entwicklung aus. D’accord!

Sascha Lobo hat in SPIEGEL Online Recht, wenn er von der Bundesregierung erwartet, sie möge sich an Macron in diesem Punkt ein Beispiel nehmen. Doch auch das baden-württembergische Projekt des „Cyber Valley“ zur KI-Forschung benötigt dringend zumindest eine Macron‘sche Interdisziplinarität.

 

„Hinter diesen Augen sitzt kein Ich“

Wer kennt nicht die Bilder und Szenen, wenn auf Technologiemessen ein begeisterter Mensch dem „süßen“ kleinen Roboter „Pepper“ über den Kopf streicht, ihm wie einem Kind in die „Augen“ schaut, als ob dieses vermeintliche Geschöpf dann dankend zurücklächelt. Der Mensch sucht Interaktion und projiziert Interaktionsfähigkeit auf den mobilen Blechhaufen.

Einem solchen Menschen gab der nachdenkliche Technikethiker Karsten Weber einen ernüchternden Rat mit auf den Weg: „Hinter diesen Augen sitzt kein Ich.“ Mit dieser Äußerung wollte der Wissenschaftler aus Regensburg jenen widersprechen, die in der momentanen Roboterentwicklung schon Maschinen „mit Bewusstsein“ zu erkennen glaubten. Davon sei man mehr als weit entfernt, wenn dieses Ziel überhaupt je erreicht werden könnte.

Die Projektion menschlicher Eigenschaften auf die Maschinen sei unangebracht und falsch. Weder menschenähnliche Roboter noch selbst fahrende Autos besäßen jene „Autonomie“, die es ihnen erlauben würde, selbst ethische bzw. normative Regeln zu setzen. Dies sei und bleibe Aufgabe des Menschen.

Auf einer Tagung zum Thema „Künstliche Intelligenz“ der Integrata-Stiftung und des Tübinger Weltethos-Institutes kritisierte Weber den unverantwortlichen Umgang mit schwerwiegenden moralischen und ethischen Fragen bei der Entwicklung der KI. Die „Anthropomorphisierung von Maschinen“ (Übertragung menschlicher Eigenschaften auf Maschinen) sei ein gravierender Fehlschluss.

Der Technikethiker verwies wissenschaftlich methodisch präzise auf die Erfahrungen mit Technikentwicklungen der letzten Jahrzehnte. Technik sei nie neutral, sie sei immer wertebasiert, wertegebunden und wertebeladen. Dies bedeute, dass bei der Konzipierung technischer Innovationen immer bewusst oder unbewusst normative Überzeugungen, Werte, Vorurteile, Interessen in die Technikentwicklung einfließen. Dies schließe ein, dass immer wieder ein Hinterfragen vorhandener Technik stattfinden müsse, da sich parallel zur Technikentwicklung auch gesellschaftliche Werte und Lebensstile (zum Beispiel Geschlechterrollen) ständig veränderten.

Diese Wertegebundenheit technischer Konzeptionen müsse – so die Diskussion – gerade bei einem besonders empfindlichen Teil der KI, nämlich der Nutzung von „selbstlernenden Software-Systemen“, deutlichere Berücksichtigung finden. Denn auch hier gilt: Hinter diesen Algorithmen sitzt kein Ich.

 

Verengungen im Blick auf die KI

Eine gemeinsam von der Integrata-Stiftung, des Weltethos-Institutes und der Giordano-Bruno-Stiftung organisierte öffentliche Fachtagung zur gesellschaftlichen Bedeutung der Entwicklung von KI (Künstliche Intelligenz) wollte die Gestaltungskompetenz auf Seiten der Bürgerinnen und Bürger stärken.

Dabei verengte sich der Diskurs in Tübingen allerdings auf zwei technische Innovationen – die jenseits von Wirtschafts- und Arbeitswelt verortet wurden. Im Zentrum standen die Potentiale selbst fahrender Autos und selbst laufender Roboter. Im KI-Diskurs gelten diese beiden Anwendungen eher nicht als zentraler Fokus der Herausforderungen. Denn sie sind letztlich nur der Hardware-Schlusspunkt einer ansonsten primär softwaretechnischen Entfaltung.

Einer der wichtigen Schlüssel zur Potentialanalyse der KI liegt – gemäß des Beitrages des Forum Soziale Technikgestaltung – in der Einschätzung und interessensorientierten Beeinflussung „autonomer Software-Systeme“ wie etwa „Watson“ von IBM. Wer gesellschaftspolitisch – zu Recht – Einfluss auf die KI-Entwicklung nehmen will, muss den Blick wechseln: Nicht vom Endgerät (Roboter, Auto, Hardware) wäre zu schauen, also vom „front end“ her, sondern von der Steuerungsebene her, vom „back end“, gilt es sich zu nähern.

Die Kernfrage lautet: Welche gesellschaftlichen und gesellschaftspolitischen Interventionen bereiten den Weg zur Demokratisierung des „back end“? Wie demokratisieren wir die Algorithmen? Dabei wäre die Gestaltung dieser selbstlernenden Software-Systeme in der Arbeitswelt objektiv der zu erwartende Pionierfall. – Dies wäre ein mutiges Thema für die nächste KI-Tagung des Tübinger Dreigestirns.

 

Für eine gesellschaftlich verantwortete Dezentralisierung der Künstlichen Intelligenz

Für eine dezentrale regionalisierte Nutzung kluger KI-Anwendungen und gegen deren Zentralisierung durch Internetgroßkonzerne spricht sich der amerikanische Kritiker Evgeny Morozov aus. Er warnt in einem Interview für die Zeitschrift „Wirtschaftswoche“ (45/2017) vor einer Monopolisierung selbstlernender Software-Systeme in der Hand weniger Eigner von immensen Kapitalsummen und der sich dabei vollziehenden Sammlung riesiger Datenberge, die immer mehr dazu geeignet seien, menschliches Verhalten zu beeinflussen und zu steuern.

Eine Hinwendung zu dezentralen Datenerfassungen und Datensammlungen auf der Ebene von regionalen gemeinschaftlichen und gesellschaftlichen Akteursverbünden könne die Monopolbildung aufhalten. Die Daten dürften nicht dem Silicon Valley gehören. Daten müssten in der Hand der Betroffenen in der Region bleiben.

Morozov sieht jedoch erheblichen Beschleunigungsbedarf bei regionalen Politiken, Parlamenten und der Zivilgesellschaft. Wenn sich die Gegenkraft zur Monopolbildung nicht innerhalb der nächsten fünf bis zehn Jahre durchsetzt, sei der Kampf auf Dauer endgültig verloren. Für Morozov – und nicht nur für ihn – geht es um die Demokratisierung unserer Daten.