„Maschinenethik“ (Teil I): Annäherungen an einen schillernden und widersprüchlichen Begriff

Wer sich mit der Virtualisierung und Digitalisierung der Arbeitswelten befasst, stolpert schnell über die Erkenntnis, dass es neben den handfesten Veränderungen für arbeitende Menschen auch um Drittmittelmärkte, um Strategien zur Erlangung von staatlichen Fördermitteln und um zeitweise substanzlose Marketingauftritte geht. Dieses Auseinanderklaffen von realen Notwendigkeiten und bloßen Akquise-Shows begegnet den kundigen Betrachtenden nun auch auf der Bühne des Wortes „Maschinenethik“.

Wer sich unkundig in die Sprachwelten der „Maschinenethik“ vorwagt, zuckt beeindruckt zurück. Da treten wissenschaftliche Teams auf, die sich mit vermeintlich spektakulären Erkenntnissen aufmachen, Fördermittel aus den staatlichen Händen auf europäischer, Bundes- oder Landes-Ebene zu ergattern. Da werden „Wirklichkeiten“ beschrieben, die keine sind, um Aufmerksamkeit zu erheischen. So schreibt ein akademischer Kopf, dass das zentrale Zukunftsthema der Digitalisierung und Virtualisierung die Herausforderung sei, dass Maschinen nun Ethik und Moral besitzen und ausführen könnten.

Die Maschine wird zum bewusstseinsfähigen Subjekt ernannt, das durch Datensammeln und Auswertungen Bewusstsein, Reflexionskompetenz, Ethik und Moral erlangen könnte. Die vermeintliche „Künstliche Intelligenz“ verfügt in solchen Beschreibungen alsbald über „Künstliche Ethik“ oder noch besser – wie ein nach Aufmerksamkeit strebender Ethiker schreibt – über „Künstliche Tugend“.

Klar, wenn man ein solches Szenario den zuständigen Vergabestellen der Ministerien einreden kann, hat man den sechs- bis siebenstelligen Betrag schon gewonnen. Wer wollte angesichts solcher Dämonen an der Wand der Zukunft nicht den Steuer-Geldbeutel für kulturelle Prävention öffnen.

Bei allem Respekt vor Frauen und Männern aus Ingenieur- und Informationswissenschaften muss man laut „Halt“ rufen! Ein solches Verständnis und Szenario von „Maschinenethik“ ist schlicht inakzeptabel. Weder kann ein physischer Blechhaufen noch ein digitaler Software-Haufen im aufgeklärt sozialwissenschaftlichen, philosophischen und menschenrechtlichen Sinne Bewusstsein im Sinne des Humanum erreichen. Ein solches Gerede von „Maschinenethik“ will Aufmerksamkeit, will vorsätzlich verunsichern und den Golem herbeireden.

Betrachtet man die technologische Wirklichkeit des Status quo und die Arbeiten in Laboren, dann lässt sich zweifellos feststellen, dass hier Gigantisches geleistet wurde. Brillante Mathematik und hervorragende Informatik haben Software-Systeme (allen voran „Autonome Software-Systeme“) hervorgebracht, die in glänzender Weise zur Verfahrens- und Prozessteuerung geeignet sind. Diese Systeme spiegeln dem Menschen vor, dass die Software „denken“ könnte und der Mensch verhält sich entsprechend, um diese Projektion zu vervollkommnen.

Das Problem sitzt vor (!) dem Bildschirm. Der Mensch hält das Agieren der Software für Denken und orientiert sein eigenes Verhalten gemäß dieser Projektion. Nicht das nicht vorhandene Bewusstsein in (!) der Maschine ist zu hinterfragen, sondern das Naive im Bewusstsein des Menschen stellt die Herausforderung dar.

Gerade für einen konstruktiven und innovativen Umgang mit neuen digitalen Lösungen sollten wir uns nicht in die Sackgassen der Hollywood-Filme drängen lassen: Sogenannte „Künstliche Intelligenz“ mit Bewusstsein gibt es nicht. Auch nicht in naher Zukunft. Was es gibt, sind aufregend gute mathematische Anwendungen mit enormen Potenzialen. Diese gilt es, engagiert demokratisch und sozial zu gestalten. Lassen wir uns nicht von vermeintlichen „Maschinen-Ethikern“ davon abhalten.

 

„Maschinenethik“ (Teil III): Ein Versuch zur Rettung der interdisziplinären Ethik

Nach zwei deutlichen Kritiken an der aufgebrochenen Debatte über sogenannte „Maschinenethik“ soll hier aber auch ein begrüßenswerter Denkansatz gewürdigt werden. Kluge Frauen und Männer aus Sozialwissenschaften, Informatik, Neurobiologie, Philosophie und Ethik greifen das ethische Verhalten von Personen auf, die Software entwickeln und Software anwenden. Sie benutzen dabei verwirrender Weise ebenfalls das Wort „Maschinenethik“, jedoch in einem völlig anderen Sinne.

Diese Gruppe spricht sich zu Recht dafür aus, dass die Softwareentwicklung wie auch die Softwareanwendung nach ethischen und humanen Kriterien erfolgen sollen. Sie sprechen daher von der ethischen Verantwortung der Entwickelnden und der Anwendenden für die Mensch-Technik-Interaktion. Sie reden nicht von der Ethik in der Maschine sondern vom ethischen Handeln des Menschen mit Hilfe der Technik gegenüber anderen Menschen. Ethik wird dem Menschen nicht der Maschine, nicht der Software zugeordnet.

Dieser Ansatz ist außerordentlich begrüßenswert und folgt der Tradition problemorientierter Technikfolgenforschung. Soziale, ethische und humane Technikgestaltung setzt vorausschauend bereits in der Phase der Technikkonzeption (Technikgenese) an. Sie betont die „Handlungsträgerschaft Mensch“ und lehnt eine nicht-gestaltete „Handlungsträgerschaft Software-Systeme“ aus ethischen Gründen grundsätzlich ab.

Die Kontroverse um „Maschinenethik“ bedarf wie gezeigt sowohl der eindeutigen Differenzierung in unterschiedliche Ansätze wie auch der klaren, tendenzkundigen, inhaltlichen Positionierung zugunsten des Humanum.

 

Der mitbestimmte Algorithmus

Das Forum Soziale Technikgestaltung lädt zu einem neuen besonderen Dialog über soziale Technikgestaltung ein. Wir wollen einen ersten Teil-Diskurs zum Thema „Der mitbestimmte Algorithmus“ starten, der in der Zeit zwischen November 2018 und Juli 2019 konkrete Handlungsempfehlungen zur Gestaltung sogenannter „selbstlernender Systeme“ und „autonomer Software-Systeme“ erbringen soll.

Die Handlungsempfehlungen sollen Frauen und Männer in Betriebs- und Personalräten, in Vertrauensleutekörpern und in Belegschaften beim Umgang mit solchen Techniken unterstützen, die verbindliche Entscheidungen in Echtzeit treffen sollen. Der Diskurs geht von folgenden Annahmen aus:

„Selbstlernende Systeme“ und „Autonome Software-Systeme“ (ASS) können bei entsprechender Einführung rechtsverbindlich hinter dem Rücken des Menschen in Echtzeit handeln. Dabei geht die „Handlungsträgerschaft Mensch“ teilweise oder vollständig auf die „Handlungsträgerschaft Autonome Software-Systeme“ über. In mehreren Firmen und Dienstleistungszusammenhängen werden „ASS“ bereits eingeführt. Es ist davon auszugehen, dass derzeit diese „ASS“ zum Teil oder vollständig nach ihrer Implementierung nicht mehr oder nur mit sehr erheblichen Kosten gestaltbar sind. Gestaltung muss daher als „vorausschauende Arbeitsgestaltung“ vor der Indienstnahme von „ASS“ im Vorfeld sozial angepasst bzw. korrigiert werden.

Es geht für den FST-Diskurs darum, Anforderungen aus der Arbeitswelt direkt in der „Spielregel“ der Software, also im Algorithmus, zu verankern. Aus der bisherigen Praxis lässt sich als These ableiten, dass die Gestaltung von „ASS“ nicht allein mit Hilfe von Betriebsvereinbarungen, Dienstvereinbarungen, Tarifregelungen und Gesetzen sowie Verordnungen erfolgreich sein wird.

Um soziale Standards in der Welt der ASS regulativ menschenzentriert zugrunde legen zu können – so die FST-Annahme –, müssen die Anforderungen gerade auch direkt im Algorithmus eingebettet sein. Deshalb ist es erforderlich, grundsätzliche (generische) Kriterien für die Gestaltung demokratisierter und mitbestimmter Algorithmen zu erarbeiten. So lassen sich sozialinnovative vernetzte Algorithmen positiv für die Humanisierung der Arbeit und zum Schutz des Klimas im Sinne des Pariser UN-Abkommens anwenden.

Von keiner Kollegin, von keinem Kollegen wird erwartet, dass sie/er ein Informatikstudium aufnimmt. Unser Ziel ist es, konkrete erfahrungsgeleitete Anforderungen aus der Sicht der Arbeits- und Berufswelt, aus Arbeits- und Gesundheitsschutz, aus Daten- und Identitätsschutz, aus der Perspektive der Beschäftigungssicherung, der Arbeitszeitregelungen und der Mitbestimmung zu formulieren, die dann in den Dialog mit der IT-Szene (im folgenden Experten-Prozess, genannt „Spezifikation“) eingebracht werden.

Der FST-Diskurs soll aus einer virtuellen Arbeitsgruppe bestehen, die sich online austauscht, aus Präsenzarbeitstreffen (Workshops) und aus verschriftlichten Ergebnissen. Der Diskurs will das Undenkbare – nämlich die demokratische Gestaltung von Algorithmen – denken und Gestaltungswissen verfügbar machen.

 

Es geht um die „Demokratisierung des Back-Ends“

Wer sich durch die aktuellen IT-Messen, Robotik-Ausstellungen, durch CeBITs und Hannover Messen bewegt, stößt auf sie. Wer sich mit den bunten Werbebroschüren einschlägiger Interessenverbände beschäftigt, kommt um das Schlagwort kaum herum. Wer sich im Netz auf Youtube mit dem vermeintlichen „Industrie 4.0“ auseinandersetzt, konfrontiert sich mit dem Begriff „Autonome Systeme“. In einem großen Schlagwort-Püree werden Digitalisierung, Virtualisierung, Künstliche Intelligenz (KI), Industrie 4.0, Arbeit 4.0, Robotik, Big Data, selbstfahrende Autos zu einem großen Gemisch zusammengerührt, das weder ermutigt, noch aufklärt, eher verklärt und eher irritiert. Der Satz „Alles hängt mit allem zusammen“ ist seit der Genesis (christliche Schöpfungserklärung) richtig und bringt daher keine weitere Erkenntnis.

Für viele Kolleginnen und Kollegen in den Betrieben, die das obige Gemisch aus der Perspektive der Arbeitswelt zu entwirren suchen, verbindet sich die Bezeichnung „Autonome Systeme“ mit Bildern von selbstlaufenden aufrechten Robotern, mit fahrerlosen Fahrzeugen oder mit selbstfahrenden Transportsystemen zur Anlieferung von Montagebauteilen. Kein Wunder: Wir sind es gewohnt, zunächst an Gegenständliches, an Physisch-Materielles zu denken. Wir sehen Hardware. Wir wollen anfassen.

Doch genau hier liegt eine der schwierigsten Herausforderungen im Wandel der Arbeitswelt. Die strategische Bedeutung der Bezeichnung „Autonome Systeme“ liegt nicht zuallererst in dem, was wir sehen und greifen können, sondern in dem, was nicht-materiell und im umgangssprachlichen Sinne „unsichtbar“ ist. Es ist die Software. Es sind insbesondere die Phänomene der „Autonomen Software-Systeme“ (ASS), der „selbstlernenden“ und „selbstentscheidenden“ Softwarelösungen, der Softwareanwendungen mit automatisierendem Vollzug in Verknüpfung mit „Cyber-Physischen Systemen“ (CPS).

Wir sind es gewohnt, vom sichtbaren mobilen oder nicht-mobilen Endgerät her zu denken, von der Displayfläche der Hardware. „Autonome Software-Systeme“ wirken aber – bildlich gesprochen – „hinter dem Bildschirm“, hinter dem Display. Statt uns auf das „Front-End“ zu konzentrieren, müssen wir uns besser im Gelände des „Back-End“ umsehen und dieses offensiv gestalten. Die Zukunft der Arbeit wird im „Back-End“ entschieden nicht im „Front-End“.

Die Verbesserung der Geräte-Nutzbarkeit, die Usability, die Ergonomie und die gesunde Handhabbarkeit sind zweifellos wichtig und dürfen nicht unterschätzt werden. Aber genauso wichtig ist die immer stärker zunehmende Kraft der Software, die faktisch Arbeitsabläufe und Geschäftsprozesse zu strukturieren und zu steuern versucht.
Es muss uns um die „Demokratisierung des Back-End“ (Schröter) und um die Demokratisierung der Prinzipien und generischen Kriterien für Algorithmen gehen. Wir benötigen offene interdisziplinäre Diskurse und Gestaltungskompetenz für die Idee des generisch (in seinen Grundsätzen) „mitbestimmten Algorithmus“ (Schröter).

In diesem Sinne muss den schon in der Arbeitswelt praktisch angekommenen Phänomenen der „Autonomen Software-Systemen“ (ASS) unsere wachsende und immer größer werdende Aufmerksamkeit gelten.

 

Gibt es eine „soziale Künstliche Intelligenz“?

Diese Frage stellte jüngst ein IBM-Betriebsrat auf einer gemeinsamen Veranstaltung des Betriebsräte-Netzwerkes ZIMT, der IG Metall Heidelberg und des Forum Soziale Technikgestaltung. Sollen wir die „KI“ eher verhindern oder besser einer Regulation unterwerfen? Der Kollege sprach Klartext: Man solle seine Kraft nicht dafür verwenden, Unvermeidbares zu verhindern, als vielmehr beobachten, verstehen, Folgen abschätzen, bewerten und dementsprechend ein verbindliches „Regelwerk“ aufbauen.
Entscheidend sei, dass man als Betriebsrätin und Betriebsrat, als Personalrätin und Personalrat im besten Sinne des Wortes „am Ball bleibt“: „Wir müssen verstehen, was möglich ist“, um gestalterisch handeln zu können.

Für die weitergehende Debatte über „Künstliche Intelligenz“ (KI) erscheint es ergänzend sinnvoll zu erkennen, dass es sich bei der momentanen öffentlichen Verwendung des Kürzels „KI“ – ähnlich wie bei der Nutzung des Begriffs „Industrie 4.0“ – um eine zumeist oberflächliche Marketing-Sprache handelt. Menschen mit wenigen Kenntnissen über „KI“ soll diese Technikverknüpfung als verzaubernde Welterlösungsformel vermittelt werden. Was Ende der 80iger Jahre die „Schlanke Produktion“ war, was Mitte der 90iger das Wort „Multimedia“ besagte, was ab 2011 die Marke „Industrie 4.0“ werden sollte, dies geschieht derzeit mit dem Begriff „Künstliche Intelligenz“.

Der Begriff wird wie eine Art Breitbandantibiotikum verkündet. „KI“ könne alles, mache alles und bestimme die Zukunft. Wohlmeinende Diskutanten verstärken diesen Trend, indem sie Horrorszenarien an die Wand malen und die Marketingwirkung verstärken. Die „KI“ übernehme die Herrschaft und vernichte 80 Prozent der Arbeitsplätze. Doch bei nüchterner Betrachtung befinden sich die im Alltag anwendbaren „KI“-Systeme – mit Ausnahme der bereits eingeführten bzw. in Einführung befindlichen „ASS“ – auf einem recht geringen Niveau. Was im Labor jenseits des Datenschutzes und jenseits der Mitbestimmung technisch in ausgewählten Vorgängen in geschützter Umgebung klappt, ist deshalb noch lange nicht für die Arbeitswelt, für Fertigung und Dienstleistung tauglich.

„KI“ verstanden als Software-Anwendung („Autonome Software-Systeme“ ASS) ist in strukturierten und geschlossenen Netzräumen erfolgreich und sehr produktiv. Doch „KI“ im offenen Netz hat seine Bewährungsprobe oftmals noch vor sich. Dies gilt umso mehr dann, wenn „KI“ mit Robotern und autonomen Fahrzeugen verbunden wird. Die Werbe- und Marketingsprache verkündet uns „Lösungen“ auf dem Niveau einer Show am Messestand.

Die Tatsache, dass zwischen Marketing-Ankündigung und tatsächlichem Nutzungsniveau eine große Differenz besteht, stellt für gewerkschaftliches Handeln eine Chance dar. Es gilt, das vorhandene Zeitfenster (Differenz zwischen jetzigem Marketing und erhoffter späterer Nutzung) zu einer aktiven „vorausschauenden Technikgestaltung“ (Schröter) zu nutzen. Um „KI“ so zu gestalten, dass sie klimaschonend, sozial, rechtskonform und beschäftigungssichernd wirkt, bedarf es ausgewiesener Gestaltungskompetenz. Diese auf der Seite der Beschäftigten zu stärken, sollten unsere Bemühungen gelten. Noch gibt es keine „soziale Künstliche Intelligenz“.

 

Betriebs- und Personalräte könnten „autonome Software-Systeme“ für sich nutzen

Derzeit legen viele Akteure aus Gewerkschaften, Betriebs- und Personlaräte den Schwerpunkt bei der Gestaltung digital-virtueller Arbeitswelten auf den Bereich der „nachholenden Digitalisierung“ (Forum Soziale Technikgestaltung). Damit werden die Einführungen von Technologien bezeichnet, die es zwar als Technikentwicklungen schon seit 10, 15 oder 20 Jahren gibt, nun aber erst zur Implementierung kommen. Dort, wo sie heute eingesetzt werden, empfinden die Arbeitnehmerinnen und Arbeitnehmer diese Anwendungen als „neu“. Doch Smartphones, elektronische Lernumgebungen, mobiles Arbeiten, alternierende Telearbeit, HomeOffice-Lösungen, Softwareagenten, Internet der Dinge, elektronische Aktenführungen, Teile der KI etc. sind seit eineinhalb oder gar zwei Jahrzehnten vorhanden. Nicht selten sind es unerledigte Hausaufgaben, die bei der Modernisierung von Arbeitsumgebungen versäumt und nun nachgeholt werden.

Doch heute bedarf es viel Aufmerksamkeit und Energie für die „Digitalisierung hinter der Digitalisierung“ (Forum Soziale Technikgestaltung). Damit sind insbesondere Technologien gemeint, die als Software in der Lage sind, „selbst zu lernen“ und in Echtzeit „selbst zu entscheiden“. Die „autonomen Software-Systeme“ (ASS) stellen eine der wichtigsten Herausforderungen für die Arbeitswelten dar. Die ASS beanspruchen, anstelle des Menschen rechtsverbindliche Entscheidungen (Transaktionen) zu treffen.

Ihre Einführungen beginnen nicht nur in Produktion und Fertigung sondern ebenso in Dienstleistung und öffentlicher Verwaltung. Das gewerkschaftliche Handeln muss um den Praxisbaustein der „vorausschauenden Arbeitsgestaltung“ erweitert werden.

Die Diskussionen des Netzwerkes „Forum Soziale Technikgestaltung“ (FST) eröffnen zugleich den Blick auf neue Möglichkeiten des Agierens von Betriebs- und Personalräten. ASS sind nicht nur Objekte der Gestaltung. Sie könnten auch Elemente einer verbesserten Betriebsarbeit und ein Fundament betrieblicher Mitbestimmung sein. Im Zusammenhang mit dem FST-Projekt „BetriebsratsArbeit auf Basis ,autonomer Software-Systeme‘“ (BABSSY) entstehen Überlegungen zu möglichen Nutzungen der ASS durch die Beschäftigtenvertretungen selbst. ASS könnten Instrumente neuartiger Praxis sein.

Stellen wir uns vor, jede Beschäftigtenvertretung hätte eine Art Online-Unterstützung (Assistenz) in Gestalt eines „selbstlernenden“ Software-Werkzeuges. Kolleginnen und Kollegen, die im Betrieb im Prozess der Mitbestimmung mit Themen konfrontiert werden, zu denen keine direkte Antwort vorliegt, könnten es aufrufen. Wenn ein ASS-Tool unscharfe Fragen, unscharfe Satzteile, erfahrungsgeleitete Begriffe eingegeben bekommt, könnte das Tool als Antworten sowohl Zusammenhänge zwischen verschiedenen Themen wie auch Verweise auf Sach- und Fachwissen bereitstellen. Es wäre ein Modell, das unscharfe Fragen eines Laien hinführt zu verläßlichen konkreten interessensorientierten Antworten. Das Software-System „lernt“ durch häufige Nutzung und wird zu einem dynamischen Beratungsassistenten. Es könnte dazu verhelfen, komplexe Zusammenhänge inhaltlich zu über—setzen, um es durch Reduzierung von Komplexität Laien leichter zu machen, Gestaltungskompetenz zu verbessern.

Wir müssen die Vier-Null-Welt aus der Perspektive der Zukunft heraus gestalten. Mit dem Blick der Vergangenheit werden wir wohl zumeist nur unerledigte vergangene Hausaufgaben lösen. Wir sollten mutiger sein.

 

Daten sind nicht gleich Daten

Die Prognosen der IT-Szene sind eindeutig: Tag für Tag, Jahr für Jahr vervielfachen sich die Datenmengen im Netz. Es bedarf daher kluger Software-Lösungen, um immense Volumina verarbeiten und auswerten zu können. Big Data, „Watson“, „autonome Software-Systeme“ (ASS) und andere automatisierende Software versprechen der Kundschaft baldige verlässliche Erfolge. Es gelte, Prozesse sowohl im Nachhinein zu überprüfen als auch vorausschauende Bewegungs- und Verhaltensmuster zu erkennen.

Als Instrument der Datenaufbereitung sollen dem arbeitenden oder einkaufenden Menschen nicht nur lange Zahlen- und Wortreihen zur Verfügung stehen. Um eine leichtere Vermittelbarkeit und bessere Verständlichkeit zu ermöglichen, setzt die IT-Szene auf eine Weitergabe und Präsentation der Ergebnisse in Gestalt von Bildern, bewegbaren Bildern (interaktive Visualisierung). Es schlägt vermehrt die Stunde der „virtuellen Realität“ (virtual realitiy, VR), zu der man mit digitalen Brillen Zugang bekommt.

Doch kann man den Ergebnissen trauen? Traut man den Daten, traut man den Ergebnissen. Wer aber garantiert die Integrität, Verlässlichkeit, Verfügbarkeit der Datenmengen? Wie lässt sich „Datenwahrhaftigkeit“ in Echtzeit überprüfen? Aus der Vergangenheit wissen wir, dass Daten immer mehrdeutig sind: „Der Tor bewegte sich durch ein Tor zum Tor und schoss ein Tor.“ Handelt es sich um vier Personen oder um ein Vier zu Null?

So besehen ist die Frage nach der „Datenwahrhaftigkeit“ nicht primär eine technische Herausforderung. Es geht um überprüfbare, an vereinbarten Kriterien orientierte Standardisierungen der Sammlung, Verarbeitung und Bewertung großer Datenmengen durch automatisierende Werkzeuge. Die Standardisierungen können nicht der IT-Entwicklerszene und der IT-Industrie überlassen werden. Dies stellt eine gesellschaftliche Aufgabe dar. Wertevielfalt, Wertepluralismus, Interessenoffenheit, Demokratieprinzipien, Egalität, Integration, Inklusion, Geschlechtergerechtigkeit, Gleichberechtigung, soziale Kontexte und Interdependenzen sind zu berücksichtigen. Technik ist nie neutral und nie wertfrei. Jede Technikentwicklung reproduziert Interessenlagen. Diesen Prozess gilt es zu demokratisieren.

Big Data und vergleichbare Vorgänge (wie etwa ASS) sowie ihre Datengrundlagen müssen nachvollziehbar wie auch überprüfbar sein. Demokratische Transparenz hat Vorrang vor technischem Determinismus. Daten sind ja eben nicht gleich Daten.

 

Die Souveränität des Menschen wahren

„Der Kunde in uns läuft dem Arbeitsgestalter in uns ständig hinter her.“ Mit diesem charmant widersprüchlichen Satz beschrieb jüngst ein führender Gewerkschafter die innere Zerrissenheit des arbeitenden Menschen. Was sollen wir wollen angesichts technischer Versprechen, die sich hinter dem Begriff „Künstliche Intelligenz“ (KI) verbergen? Gelingt es den Gestaltungansätzen von Betriebs- und Personalräten sowie Gewerkschaften, die Souveränität des Menschen zu wahren?

Mit „lernenden Systemen“ gelinge es erstmalig, dass die Lernfähigkeit ökonomisch besitzbar wird. Lernfähigkeit gerät zum technikinduzierten Wirtschaftsfaktor. Aus der Lernfähigkeit des Menschen leite sich die Lernfähigkeit „autonomer Software-Systeme“ ab, so die These. Dabei sollte intervenierend ein ethisches Prinzip gewerkschaftlichen Denkens greifen. Die Autonomie des Menschen in der Arbeit soll Vorrang behalten vor der Autonomie technischer Systeme.

Kann dieses Ziel dadurch erreicht werden, dass von gewerkschaftlicher Seite die Idee eines „sozialen Pflichtenheftes für Künstlicher Intelligenz“ aktiviert wird? Lastenhefte und Pflichtenhefte sind im Umfeld analoger, genau beschreibbarer und vorhersehbarer technischer Abläufe entstanden. „Selbstlernende Software“ und „autonome Software-Systeme“ entziehen sich dieser Beschreibbarkeit aber dann, wenn sie selbst „lernend“ sind.

Einen hervorragenden Gedanken stellt ein nur scheinbar überraschender Vorschlag dar: Um die Möglichkeiten der „KI“ akzeptabel zu machen, sollte die Effizienzdividende der „KI“ in Gestalt von freier Zeit „ausbezahlt“ werden. Mit dem Einsatz von „KI“ sollen Beschäftigte tageweise Freizeit erhalten. So entstünde zwischen Mensch und „KI“ eine besondere Zeit-Freundschaft. Ein begrüßenswerter konkreter Tagtraum!

 

Unterschätzen wir die digitale Transformation?

Wer sich mit der sozialen Gestaltung moderner Arbeitswelten befasst, stellt sich wohl ab und zu die Frage, wo denn eigentlich derzeit vorne sei. Bilden die Humanisierung mobiler Arbeit und die Einrichtung eines HomeOffice das unerkannt Neue? Stellen das „Internet der Dinge“ oder „Smart Glasses“ die Überraschung des Morgen dar? Ist die Nutzung eines Smartphones eine Innovation?

Seien wir ehrlich: Wir sind zumeist mehrheitlich dabei, unsere unerledigten Hausaufgaben der letzten Jahre aufzuarbeiten. Smartphones wurden im Unternehmensalltag 1996/97 eingeführt. Der erste Tarifvertrag für mobiles Arbeiten wurde 1996 unterschrieben. „Kluge Brillen“, das „Internet der Dinge“ und die „Smart Factory“ sind seit eineinhalb Jahrzehnten technische Wirklichkeit. Wir gestalten momentan vor allem eine „nachholende Digitalisierung“ (Schröter). Dies ist absolut notwendig und eine erhebliche soziale Herausforderung. Diese Digitalisierung ist die Basis von „Arbeit 4.0“, aber es ist nicht „Arbeit 4.0“.

Die Vier-Null-Welten beginnen mit der „Digitalisierung hinter der Digitalisierung“ (Schröter), wenn die „Handlungsträgerschaft Mensch“ übergeht in eine „Handlungsträgerschaft autonomer Software-Systeme“, die „selbstlernend“ und in gewisser Weise „selbstentscheidend“ sind. Damit sind nicht Roboter oder selbstfahrende Autos gemeint.

Es geht um Software, um ein neues gewerkschaftliches Verständnis der Potenziale von Software. Wir müssen lernen, den Menschen ins Zentrum der Arbeits- und Lebenswelt zu setzen und zugleich die Prozesse und Organisationsabläufe durch die Brille der „intelligenten“ Software zu denken. Dieser Blick öffnet die Tür zum Verständnis der Vier-Null-Welten.

Solange wir aber nur rückwärtig nachholend handeln, gerät uns die Richtung des „Vorne“ aus dem Blick. Das, was technologisch vorne ist, muss dem Humanum unterworfen werden. Unsere Gestaltungskompetenz gilt es zu erneuern.

Daher ist es unabdingbar, dass wir die gleiche Energie und den gleichen Aufwand, den wir im Moment in die „nachholende Digitalisierung“ investieren, ebenfalls in die Gestaltung „autonomer Software-Systeme“ (ASS), in den Erwerb von Kompetenz zur „vorausschauenden Arbeitsgestaltung“, in die Demokratisierung des Prinzips Algorithmus und in die demokratische Formung ambivalenter Blockchain-Anwendungen aufbringen.

Soziale Gestaltung gelingt am besten von vorne. Dort müssen wir hin. Rasch. Kompetent. Sozial. Innovativ. Mitbestimmt.

Unterschätzen wir die digitale Transformation? Noch.

 

FST für Gestaltungsdialog mit der Open Source-Community

Wenn es im Zuge der voranschreitenden „digitalen Transformation“ der Arbeitswelten zu einem wachsenden Einsatz sogenannter „selbstlernender“ Software kommt, wird der klassische gewerkschaftliche Technikgestaltungsdiskurs auf eine harte Probe gestellt.

Denn die Anpassung der ASS („Autonome Software-Systeme“), wie sie etwa auch in „Watson“ hinterlegt sind, verlangt von denen, die gestalten wollen, erhebliche zusätzliche Kenntnisse und Kompetenzen. Nicht nur eine neue Qualität der „vorausschauenden Arbeitsgestaltung“ ist unabdingbar. Vor allem muss ein aktualisierter Gestaltungsansatz, den Mut, das Erfahrungswissen und das IT-Wissen aufweisen, die Interessen und sozialen Standards direkt in die Spezifizierung der Algorithmen-Entwicklung einzubringen. (Siehe dazu in diesem Blog die Posts zum „mitbestimmten Algorithmus“ und zur Demokratisierung generischer Algorithmus-Prinzipien).

Kolleginnen und Kollegen in Betriebs- und Personalräten brauchen für diesen Weg Unterstützung und ermutigende Assistenz. Es bedarf eines klugen Wissenstransfers zwischen gewerkschaftlichen und außergewerkschaftlichen Frauen und Männern aus der freien Open Source-Szene, aus demokratischen Graswurzelbewegungen (wie etwa des Chaos Computer Clubs bzw. Teilen der IEEE) und aus den Netzwerken der offenen IT-Entwickler-Communities.

Das gewerkschaftliche Personennetzwerk „Forum Soziale Technikgestaltung“ hat angesichts dieses Hintergrundes die jüngste Konferenz „OPEN 2017“ in Stuttgart mit rund 300 IT-lerinnen und IT-lern für eine Dialogeinladung genutzt. Es solle unter dem Dach regionaler Netzwerke ein Gestaltungsdialog zwischen gewerkschaftlichen Communities mit den freien Open Source-Communities angestoßen bzw. intensiviert werden.

Besondere Gemeinsamkeiten der möglichen Dialog-Akteure liegen im Eintreten für Datenschutz und Datensicherheit, im Schutz der Privatheit und im Widerspruch gegen Datenmonopole im Netz. Nun gilt es, über Spielregeln für partizipative Demokratisierungsmöglichkeiten von Algorithmen nachzudenken.