Wenn die eigene Arbeit fremd wird

Für unsere Großeltern schien die Arbeitswelt noch einigermaßen übersichtlich: Mit der eigenen Hände Arbeit entstanden Produkte, die sinnlich, haptisch fassbar waren. Arbeit war materielle Arbeit, war Arbeit an der Materie, egal ob Holz, Kunststoff, Keramik, Stahl, Metall, Brot oder die Pflege eines Menschen. Es gab im Guten eine direkte nahe Beziehung zwischen Mensch und Arbeitsergebnis. Der Mensch konnte das Arbeitsergebnis berühren. Daraus zog der arbeitende und sich vergegenständlichende Mensch sein Selbstbewusstsein, seine Identität, sein Selbstverständnis. Berufsbezeichnungen orientierten sich an der zu verarbeitenden Materie. Als Kennzeichen der Zukunft der Arbeit galt die Materie.

Viele Jahrzehnte später und nach mehr als dreißig Jahren Digitalisierung müssen wir heute von der Annahme ausgehen, dass in einer vergleichsweise kurzen, überschaubaren Zeit von nur wenigen Jahren sich ein struktureller Umbruch in allen arbeitsweltlichen Bereichen vollzieht. Die direkte sinnliche Beziehung von arbeitendem Mensch und Arbeitsprodukt nimmt tendenziell ab. Zwischen Mensch und Produkt schieben sich eine oder mehrere digital-virtuelle Plattformen. Ohne den Zugang zu einer Plattform wird bald der direkte Zugriff zu dem zu leistenden Arbeitsauftrag kaum mehr möglich sein. Die Fähigkeit, sich auf und in Plattformen bewegen zu können, entscheidet zunehmend über die Möglichkeit des Zugangs zur Arbeit. Die Zugänglichkeit der Plattform regelt immer mehr die Zugänglichkeit zur physischen Arbeit.

Menschen, die dem Hand-Werken verbunden sind und vor allem über intuitives Erfahrungswissen verfügen im Sinne eines „Gedächtnisses der Hände“ (Schröter), werden gedrängt werden, sich verstärkt dem Kopf-Werken zuwenden zu müssen. Der Grad der Abstraktion und Komplexität nimmt für jede/n deutlich zu. Ob mobile Pflege oder Werken in der Fertigung, ob Verpackungskraft oder Stuckateur, der Umgang mit dem Display und das Verstehen-Können, was „hinter“ dem Display geschieht, verändert das Selbstwertgefühl.

Für viele wird sich dieses technische Hemmnis zu einer sozialen und qualifikatorischen Barriere entwickeln. Herausforderungen in der beruflichen Bildung und Weiterbildung werden demnach nicht nur eine neue fachliche Anforderung darstellen. Vielmehr wird die grundsätzliche Befähigung, mit abstrakten Abläufen und Prozessen auf den Plattformen nachvollziehbar umgehen zu können, zu einer Erweiterung unserer Schlüsselqualifikationen führen müssen. Der Umgang mit nicht-materieller Arbeit, das Verständnis dieses Typs von Arbeit und der Erwerb von „Komplexitätskompetenz“ (Schröter) werden zu zentralen Erfolgskriterien kommender Erwerbsbiografien. Das materielle Werken folgt den digitalen Vorgaben. Die Zukunft der Arbeit wird im virtuellen Raum entschieden.

 

Warum gerade viele Jugendliche eine besondere Unterstützung beim Übergang von der Schule in den Beruf benötigen

Seit vielen Jahren befasst sich eine umfangreiche Fachdebatte mit dem Übergang der jungen Menschen von der Schule in einen Beruf bzw. in eine Berufsausbildung. Schulen, Berufsschulen, Jugendsozialarbeit, Produktionsschulen, Jugendhäuser, betriebliche Ausbilder, überbetriebliche Einrichtungen des Handwerks, Gewerkschaften, Kirchen, SozialpädagogInnen und viele andere bemühen sich, jenen jungen Menschen, die unterschiedliche Formen der Unterstützung benötigen, passgenaue Hilfe zukommen zu lassen.

Dabei liegen diese Hilfen oftmals nicht primär im Bereich des Erwerbs von beruflichen Fähigkeiten und Kenntnissen sondern eher auf dem Feld der sozialen Umgangsformen wie Pünktlichkeit, Verlässlichkeit, Selbstvertrauen, Kommunikationskompetenz, Arbeitsschutz, Fähigkeit zur eigenen autonomen Lebensplanung etc. Es sind zumeist die „weichen“ Faktoren, die über Erfolg oder Misserfolg im beruflichen Leben entscheiden.

Viele dieser Jugendlichen täuschen dabei ihre Umwelt, indem sie ihnen demonstrieren, dass sie in der Lage sind, besonders flink die Display-Oberfläche ihres Smartphones zu bedienen. Die „LOL‘s“ und „XoXo’s“ zeugen von vermeintlicher Onlinekompetenz. Viele ältere Betreuerinnen und Betreuer glauben sich in der Defensive, weil sie die Fingerfertigkeit der Jungen auf dem Display für „digitale Kompetenz“ halten. Doch hier gilt es, die vielen Frauen und Männer aus der Jugendsozialarbeit zu ermutigen, denn die Kompetenz im Umgang mit Virtualität lässt sich nicht an der Geschwindigkeit der Finger ablesen.

Es geht vielmehr um die Frage, ob ein junger Mensch in der Lage ist, Zusammenhänge, Prozesse und Prozessabläufe nachzuvollziehen und zu verstehen. Man könnte es bildhaft auch so ausdrücken: Nicht das, was man auf dem Bildschirm sieht, ist das Relevante, sondern jenes, was durch die Berührungen der Buttons „hinter dem Display“ ausgelöst wird. Hier liegt eine der großen Herausforderungen: Immer mehr junge Menschen verstehen die Arbeitszusammenhänge nicht. In wachsendem Maße sollte deshalb ein Schwerpunkt darauf gelegt werden, jungen Menschen den Umgang mit Abstraktion und Komplexität zu erschließen.

Wer seine Arbeitsinhalte, Arbeitsvorgänge und Arbeitsabläufe nicht ausreichend nachvollziehen kann, wer nicht wahrnimmt, dass sich die virtuellen Anteile der Arbeit immer mehr komplementär zur materiellen Arbeit verhalten, wird sich auf Dauer nicht mit seiner Arbeit identifizieren können. Fremdheit in der Arbeit, Entfremdung als Lebensgefühl führt nicht zur Stärkung des eigenen Selbstvertrauens. Im Gegenteil.

Dies dürfen die Akteure in der sich überschlagenden Debatte über die „Digitalisierung der beruflichen Ausbildung“ nicht vergessen. Die Suche nach geeigneten Wegen zur Stärkung der individuell im Team angeeigneten „Komplexitätskompetenz“ (Schröter) muss verstärkt werden.

 

Der 100. Blog-Eintrag: Bringt die digitale Transformation eine Rückbildung oder eine Weiterentwicklung der Arbeitswelt?

Als vor rund fünfzig Jahren das einflussreiche Buch von Johannes Agnoli und Peter Brückner mit dem Titel „Die Transformation der Demokratie“ erschien, trug das Wort „Transformation“ etwas Warnendes und Bedrohliches in sich. Die Autoren analysierten die Geschichte der jungen Bundesrepublik Deutschland seit 1949. Dabei stellten sie eine Rückbildung und politisch gewollte Rückentwicklung („Involution“) der Demokratie fest. Deutlich wurde dies – so die Autoren – unter anderem an der Durchsetzung der Notstandsgesetze, wogegen die damalige außerparlamentarische Opposition laut protestierte.

Heute begegnet uns der Begriff „Transformation“ erneut, jedoch anders, diesmal als Verheißung, als „digitale Transformation“ von Wirtschaft, Arbeitswelt und Gesellschaft. Heute eröffnet der Begriff ein eher janusköpfiges Potenzial: Die digitale Transformation kann den Weg ebnen zu einer Ausweitung von Demokratie, sozialen Standards, Partizipation und Mitbestimmung oder aber zu deren gegenläufiger Tendenz. Auch die Rückbildungen von Demokratie und sozialen Standards sind denkbar.

Für viele Betriebsrätinnen und Betriebsräte gilt die digitale Transformation als Chance für eine Humanisierung der Arbeit und als Option für ein „Mehr Demokratie wagen“.

Neben der noch nicht aufgelösten Janusköpfigkeit zeigt der Transformations-Begriff noch eine weitere innere Spannung: Um den Prozess der digitalen Transformation nachvollziehbar und erklärbar zu machen, muss die Dynamik des Transformierens verlangsamt werden. Beteiligungsorientierte Demokratie benötigt Zeit. Verlangsamung aber beeinträchtigt – so die Stimmen der Arbeitgeber – die Wettbewerbsfähigkeit der Unternehmen und ihrer Produkte. Ein betriebsrätlich-gewerkschaftliches Handeln muss sich an der Lerngeschwindigkeit der Mehrheit der Gewerkschaftsmitglieder orientieren. Als vermeintliche „Avantgarde“ den Mitgliedern vorauszueilen und ihnen dabei zu enteilen, kann keine tragfähige Lösung sein.

Zugleich müssen sich Betriebsrätinnen und Betriebsräte aber auch von Geschwindigkeiten technikinduzierter Innovationsprozesse leiten lassen. Gestaltungskompetenz der Beschäftigtenvertretungen kann nicht bedeuten, den Technikeinführungen hinterher zu laufen. Die zunehmende Einführung „Autonomer Software-Systeme“ (ASS) in Wartungsprozessen, Instandhaltung, Personalmanagement, Logistik und Geschäftsprozesssteuerungen verlangt vom Gremium Betriebsrat die Kompetenz zu „vorausschauender Arbeitsgestaltung“. Die Gestaltung der ASS erfordert eine deutliche Beschleunigung des Handelns der Beschäftigtenvertretungen.

Für die Lernprozesse des Betriebsratsgremiums kann die Spannung zwischen Verlangsamung und Beschleunigung nicht nach einer Seite aufgehoben werden. Die Kunst besteht darin, die Spannung zwischen beiden Polen aufrecht zu erhalten. Das mag je nach Lage der Kontroverse belastend sein. Aber es ist die einzig vernünftige Möglichkeit, den Zusammenhalt zu wahren.

 

Schon wieder digital? Was ist neu am Neuen? Was ist alt am Neuen?

Wie schon mehrfach beschrieben, lässt sich die seit Anfang der neunziger Jahre vollziehende Digitalisierung der Arbeitswelt in mehrere Stufen gliedern. Eine solche Gliederung hilft beim Verständnis.

Zunächst aber sollte man sich von der Marketing-Oberfläche der vermeintlich „digitalen Revolution“ trennen, die jährlich irgendwo in der Republik von nicht ausreichend informierten Zeitgenossen ausgerufen wird. Betrachtet man die digitalen Schlagwort-Wellen mit etwas nüchternem Abstand, fällt eine wiederkehrende Flachheit auf. Was Anfang der 90iger Jahre als „Informatisierung“ lief, trug Mitte der neunziger Jahre den Namen „Multimedia“. Dieser Bezeichnung folgte die „Electronic“-Welle mit E-Commerce, E-Business, E-Government, E-Working etc. Kaum weitere fünf Jahre später war alles „smart“: Smart Work, Smart Factory, Smart Government etc. Ein weiteres halbes Jahrzehnt danach schäumte die Vier-Null-Welle durch das Land: Industrie 4.0, Arbeit 4.0, Bildung 4.0, Verwaltung 4.0 etc. Derzeit ist alles „KI“, also „Künstliche Intelligenz“. Mit einer kleinen Portion Humor lässt sich prophezeiten, dass danach alles „Neuro“ sein wird. Am Horizont wartet dann schon der Marketing-Schlager „Organic“.

Auffallend aber ist, dass in der Regel inhaltlich fast immer dasselbe angeboten wird: Mobiles Arbeiten, Smartphones, elektronische Lernwege, Internet der Dinge, angereicherte Realität, kluge Brillen, Prozesssteuerungen etc. Die strukturellen Zielsetzungen („Alles hängt mit allem zusammen.“) haben sich nur wenig entfaltet, dafür ist die Marketing-Umrahmung umso intensiver. Die Basistechnologen für diese Themen sind in der Regel zehn, fünfzehn oder gar zwanzig Jahre alt. Diese Technologien werden nun an vielen Orten mit Updates und Upgrades sowie mit ergänzten grafischen Oberflächen als vermeintlich neu implementiert. Die Anwenderinnen und Anwender empfinden diese alten Lösungen subjektiv als neu. Mit den tatsächlichen Herausforderungen hat dies wenig zu tun. Für diese Implementierung älterer Techniklinien gibt es schon zahlreiche ältere Betriebs- und Dienstvereinbarungen, die angepasst werden können.

Was aber ist wirklich neu? Wo ist derzeit technologisch „vorne“? Während im Forum Soziale Technikgestaltung die oben beschriebenen Abläufe eher als „nachholende Digitalisierung“ (Schröter) bezeichnet werden, lässt sich in einem bestimmten Teil der Software-Entwicklung der evolutionäre Bruch zum tatsächlich Neuen erkennen. Seit mindestens vier Jahrzehnten wächst die Zahl der software-technischen Werkzeuge. Ein wesentlicher großer Teil der bisherigen Software-Entwicklung ist im wohlwollend besten Sinne des Wortes „gute dumme Software“ (Schröter). Damit sind Werkzeuge gemeint, die sich durch ihren Gebrauch, ihre Anwendung nicht verändern (von immanenten Sicherheitsupdates und Antivirenimpulsen einmal abgesehen). Diese „gute dumme Software“ „lernt“ und „denkt“ nicht.

Teile der „Autonomen Software-Systeme“ (ASS) hingegen nehmen ständig neue Daten auf, „bewerten“ sie auf der Basis verankerter Spielregelanweisungen (Algorithmen) und kommen dadurch zu neuen Ergebnissen. Diese ASS verändern sich als Werkzeuge durch ihre Anwendungen. Die Gestaltung solcher sich selbstverändernder Werkzeuge benötigt eine andere soziale Gestaltungskompetenz als jene zur Formierung der „nachhaltigen Digitalisierung“ bzw. der „guten dummen Software“.

Diesen sich verändernden ASS wird nachgesagt, dass sie „lernen“, „denken“, „bewerten“, „entscheiden“ und „ausführen“. Natürlich denken und lernen sie nicht wirklich. Aber die darin enthaltende Mathematik ist so brillant, dass die Menschen vor dem Bildschirm sie als „denkend“ und „lernend“ empfinden. Auch hier sitzt – wie schon häufig erwähnt – das Problem vor dem Bildschirm.

Dieser Bruch, der dadurch charakterisiert wird, dass „Autonome Software-Systeme“ sich als Werkzeuge selbst verändern und dass die bisherige „Handlungsträgerschaft Mensch“ schrittweise zur „Handlungsträgerschaft ASS“ werden kann, bildet die soziale, ethische und technische Schlüsselherausforderung im aktuellen Verlauf der Digitalisierung. Wo dieser Bruch zu erkennen ist, ist vorne. Dort muss sich gewerkschaftliches Handeln bündeln und intervenieren.

 

„Maschinenethik“ (Teil I): Annäherungen an einen schillernden und widersprüchlichen Begriff

Wer sich mit der Virtualisierung und Digitalisierung der Arbeitswelten befasst, stolpert schnell über die Erkenntnis, dass es neben den handfesten Veränderungen für arbeitende Menschen auch um Drittmittelmärkte, um Strategien zur Erlangung von staatlichen Fördermitteln und um zeitweise substanzlose Marketingauftritte geht. Dieses Auseinanderklaffen von realen Notwendigkeiten und bloßen Akquise-Shows begegnet den kundigen Betrachtenden nun auch auf der Bühne des Wortes „Maschinenethik“.

Wer sich unkundig in die Sprachwelten der „Maschinenethik“ vorwagt, zuckt beeindruckt zurück. Da treten wissenschaftliche Teams auf, die sich mit vermeintlich spektakulären Erkenntnissen aufmachen, Fördermittel aus den staatlichen Händen auf europäischer, Bundes- oder Landes-Ebene zu ergattern. Da werden „Wirklichkeiten“ beschrieben, die keine sind, um Aufmerksamkeit zu erheischen. So schreibt ein akademischer Kopf, dass das zentrale Zukunftsthema der Digitalisierung und Virtualisierung die Herausforderung sei, dass Maschinen nun Ethik und Moral besitzen und ausführen könnten.

Die Maschine wird zum bewusstseinsfähigen Subjekt ernannt, das durch Datensammeln und Auswertungen Bewusstsein, Reflexionskompetenz, Ethik und Moral erlangen könnte. Die vermeintliche „Künstliche Intelligenz“ verfügt in solchen Beschreibungen alsbald über „Künstliche Ethik“ oder noch besser – wie ein nach Aufmerksamkeit strebender Ethiker schreibt – über „Künstliche Tugend“.

Klar, wenn man ein solches Szenario den zuständigen Vergabestellen der Ministerien einreden kann, hat man den sechs- bis siebenstelligen Betrag schon gewonnen. Wer wollte angesichts solcher Dämonen an der Wand der Zukunft nicht den Steuer-Geldbeutel für kulturelle Prävention öffnen.

Bei allem Respekt vor Frauen und Männern aus Ingenieur- und Informationswissenschaften muss man laut „Halt“ rufen! Ein solches Verständnis und Szenario von „Maschinenethik“ ist schlicht inakzeptabel. Weder kann ein physischer Blechhaufen noch ein digitaler Software-Haufen im aufgeklärt sozialwissenschaftlichen, philosophischen und menschenrechtlichen Sinne Bewusstsein im Sinne des Humanum erreichen. Ein solches Gerede von „Maschinenethik“ will Aufmerksamkeit, will vorsätzlich verunsichern und den Golem herbeireden.

Betrachtet man die technologische Wirklichkeit des Status quo und die Arbeiten in Laboren, dann lässt sich zweifellos feststellen, dass hier Gigantisches geleistet wurde. Brillante Mathematik und hervorragende Informatik haben Software-Systeme (allen voran „Autonome Software-Systeme“) hervorgebracht, die in glänzender Weise zur Verfahrens- und Prozessteuerung geeignet sind. Diese Systeme spiegeln dem Menschen vor, dass die Software „denken“ könnte und der Mensch verhält sich entsprechend, um diese Projektion zu vervollkommnen.

Das Problem sitzt vor (!) dem Bildschirm. Der Mensch hält das Agieren der Software für Denken und orientiert sein eigenes Verhalten gemäß dieser Projektion. Nicht das nicht vorhandene Bewusstsein in (!) der Maschine ist zu hinterfragen, sondern das Naive im Bewusstsein des Menschen stellt die Herausforderung dar.

Gerade für einen konstruktiven und innovativen Umgang mit neuen digitalen Lösungen sollten wir uns nicht in die Sackgassen der Hollywood-Filme drängen lassen: Sogenannte „Künstliche Intelligenz“ mit Bewusstsein gibt es nicht. Auch nicht in naher Zukunft. Was es gibt, sind aufregend gute mathematische Anwendungen mit enormen Potenzialen. Diese gilt es, engagiert demokratisch und sozial zu gestalten. Lassen wir uns nicht von vermeintlichen „Maschinen-Ethikern“ davon abhalten.

 

„Maschinenethik“ (Teil II): Der Wandel des Menschenbildes

Wie oben beschrieben wollen die Anhänger der „Maschinenethik“ in Geräten und in der Software menschenähnliches reflexionsfähiges Bewusstsein entdeckt haben. Diese Annahme fußt auf einer Voraussetzung, die es dringend zu hinterfragen gilt. Wenn Maschinen Ethik und Bewusstsein besitzen, welches Verständnis von Ethik und Bewusstsein wird dabei zugrunde gelegt?

Wir kennen dieses Phänomen aus der Verbindung von Robotik-Entwicklung und Kinderpsychologie bzw. Kinderpädagogik. Die Forschungsteams, die menschenähnlichen (humanoiden) Robotern Bewegungen beibringen, greifen dabei auf biografisch-soziale Lernprozesse von Kleinkindern zurück. Wie lernen Kinder? Wie greifen und tasten sie? Wie wiederholen sie Bewegungen? Bei diesem Ansatz reduzieren die Robotik-Teams die Verhaltensmuster der Kleinkinder, um die abstrahierten Vorgänge technisch nachbilden zu können. Damit Roboter „lernen“ können, muss das Verhalten eines Kindes vereinfacht und reduziert werden. Solange sich alle Beteiligten darüber im Klaren sind und wissen, dass das tatsächliche und wirkliche  Verhalten von Kindern viel komplexer ist, besteht kein Risiko für Ideologisierungen.

Die Debatte um „Maschinenethik“ ist mit der Adaption des Verhaltens von Kindern zur Implementierung in Roboter methodisch vergleichbar. Zugespitzt formuliert bedeutet dies: Um in einem mathematisierten Software-Haufen „Bewusstsein“ zu entdecken, muss das Verständnis von Bewusstsein so heruntergefahren und reduziert werden, dass es technisch nachbildbar wird. Hinter der Frage, ob Maschinen eine Ethik und eine  Moral besitzen können, verbirgt sich die gravierende Frage, wie sich das Menschenbild und das Humanum anpassen müssen, um für solch eine „Maschinenethik“ passend zu sein.

Ein gewisser Teil derjenigen, die sich diesem Typ der „Maschinenethik“ verschrieben haben, arbeitet nicht an der Maschine oder an der Software sondern am Wandel des Menschenbildes. Die exzessivste Form davon stellen die „Transhumanisten“ dar, die unter dem Vorwand der biologischen Evolution die Verknüpfung von Organischem und Digitalem anstreben. Letztlich soll das ewige Leben dadurch erreicht werden, dass ein digitalisiertes menschliches Gehirn mit Bewusstsein in einer Hardware fort“lebt“.
In der Bundesrepublik haben bestimmte „Ethiker“ extra eine Partei gegründet. Ihre – vor allem männlichen – Vertreter versuchen, über vorhandene hiesige Organisationen und über honorige Stiftungen ihre ideologisierten, teilweise aus den USA kopierten Konzepte zu verbreiten.

Einige der amerikanischen Transhumanisten setzen für das Menschenbild der Zukunft drei zentrale Begriffe: männlich, weiß, digital. Dieser Typ von „Maschinenethik“ revidiert das Menschenbild der UN-Charta der Menschenrechte.

 

„Maschinenethik“ (Teil III): Ein Versuch zur Rettung der interdisziplinären Ethik

Nach zwei deutlichen Kritiken an der aufgebrochenen Debatte über sogenannte „Maschinenethik“ soll hier aber auch ein begrüßenswerter Denkansatz gewürdigt werden. Kluge Frauen und Männer aus Sozialwissenschaften, Informatik, Neurobiologie, Philosophie und Ethik greifen das ethische Verhalten von Personen auf, die Software entwickeln und Software anwenden. Sie benutzen dabei verwirrender Weise ebenfalls das Wort „Maschinenethik“, jedoch in einem völlig anderen Sinne.

Diese Gruppe spricht sich zu Recht dafür aus, dass die Softwareentwicklung wie auch die Softwareanwendung nach ethischen und humanen Kriterien erfolgen sollen. Sie sprechen daher von der ethischen Verantwortung der Entwickelnden und der Anwendenden für die Mensch-Technik-Interaktion. Sie reden nicht von der Ethik in der Maschine sondern vom ethischen Handeln des Menschen mit Hilfe der Technik gegenüber anderen Menschen. Ethik wird dem Menschen, nicht der Maschine, nicht der Software zugeordnet.

Dieser Ansatz ist außerordentlich begrüßenswert und folgt der Tradition problemorientierter Technikfolgenforschung. Soziale, ethische und humane Technikgestaltung setzt vorausschauend bereits in der Phase der Technikkonzeption (Technikgenese) an. Sie betont die „Handlungsträgerschaft Mensch“ und lehnt eine nicht-gestaltete „Handlungsträgerschaft Software-Systeme“ aus ethischen Gründen grundsätzlich ab.

Die Kontroverse um „Maschinenethik“ bedarf wie gezeigt sowohl der eindeutigen Differenzierung in unterschiedliche Ansätze wie auch der klaren, tendenzkundigen, inhaltlichen Positionierung zugunsten des Humanum.

 

Der mitbestimmte Algorithmus

Das Forum Soziale Technikgestaltung lädt zu einem neuen besonderen Dialog über soziale Technikgestaltung ein. Wir wollen einen ersten Teil-Diskurs zum Thema „Der mitbestimmte Algorithmus“ starten, der in der Zeit zwischen November 2018 und Juli 2019 konkrete Handlungsempfehlungen zur Gestaltung sogenannter „selbstlernender Systeme“ und „autonomer Software-Systeme“ erbringen soll.

Die Handlungsempfehlungen sollen Frauen und Männer in Betriebs- und Personalräten, in Vertrauensleutekörpern und in Belegschaften beim Umgang mit solchen Techniken unterstützen, die verbindliche Entscheidungen in Echtzeit treffen sollen. Der Diskurs geht von folgenden Annahmen aus:

„Selbstlernende Systeme“ und „Autonome Software-Systeme“ (ASS) können bei entsprechender Einführung rechtsverbindlich hinter dem Rücken des Menschen in Echtzeit handeln. Dabei geht die „Handlungsträgerschaft Mensch“ teilweise oder vollständig auf die „Handlungsträgerschaft Autonome Software-Systeme“ über. In mehreren Firmen und Dienstleistungszusammenhängen werden „ASS“ bereits eingeführt. Es ist davon auszugehen, dass derzeit diese „ASS“ zum Teil oder vollständig nach ihrer Implementierung nicht mehr oder nur mit sehr erheblichen Kosten gestaltbar sind. Gestaltung muss daher als „vorausschauende Arbeitsgestaltung“ vor der Indienstnahme von „ASS“ im Vorfeld sozial angepasst bzw. korrigiert werden.

Es geht für den FST-Diskurs darum, Anforderungen aus der Arbeitswelt direkt in der „Spielregel“ der Software, also im Algorithmus, zu verankern. Aus der bisherigen Praxis lässt sich als These ableiten, dass die Gestaltung von „ASS“ nicht allein mit Hilfe von Betriebsvereinbarungen, Dienstvereinbarungen, Tarifregelungen und Gesetzen sowie Verordnungen erfolgreich sein wird.

Um soziale Standards in der Welt der ASS regulativ menschenzentriert zugrunde legen zu können – so die FST-Annahme –, müssen die Anforderungen gerade auch direkt im Algorithmus eingebettet sein. Deshalb ist es erforderlich, grundsätzliche (generische) Kriterien für die Gestaltung demokratisierter und mitbestimmter Algorithmen zu erarbeiten. So lassen sich sozialinnovative vernetzte Algorithmen positiv für die Humanisierung der Arbeit und zum Schutz des Klimas im Sinne des Pariser UN-Abkommens anwenden.

Von keiner Kollegin, von keinem Kollegen wird erwartet, dass sie/er ein Informatikstudium aufnimmt. Unser Ziel ist es, konkrete erfahrungsgeleitete Anforderungen aus der Sicht der Arbeits- und Berufswelt, aus Arbeits- und Gesundheitsschutz, aus Daten- und Identitätsschutz, aus der Perspektive der Beschäftigungssicherung, der Arbeitszeitregelungen und der Mitbestimmung zu formulieren, die dann in den Dialog mit der IT-Szene (im folgenden Experten-Prozess, genannt „Spezifikation“) eingebracht werden.

Der FST-Diskurs soll aus einer virtuellen Arbeitsgruppe bestehen, die sich online austauscht, aus Präsenzarbeitstreffen (Workshops) und aus verschriftlichten Ergebnissen. Der Diskurs will das Undenkbare – nämlich die demokratische Gestaltung von Algorithmen – denken und Gestaltungswissen verfügbar machen.

 

Es geht um die „Demokratisierung des Back-Ends“

Wer sich durch die aktuellen IT-Messen, Robotik-Ausstellungen, durch CeBITs und Hannover Messen bewegt, stößt auf sie. Wer sich mit den bunten Werbebroschüren einschlägiger Interessenverbände beschäftigt, kommt um das Schlagwort kaum herum. Wer sich im Netz auf Youtube mit dem vermeintlichen „Industrie 4.0“ auseinandersetzt, konfrontiert sich mit dem Begriff „Autonome Systeme“. In einem großen Schlagwort-Püree werden Digitalisierung, Virtualisierung, Künstliche Intelligenz (KI), Industrie 4.0, Arbeit 4.0, Robotik, Big Data, selbstfahrende Autos zu einem großen Gemisch zusammengerührt, das weder ermutigt, noch aufklärt, eher verklärt und eher irritiert. Der Satz „Alles hängt mit allem zusammen“ ist seit der Genesis (christliche Schöpfungserklärung) richtig und bringt daher keine weitere Erkenntnis.

Für viele Kolleginnen und Kollegen in den Betrieben, die das obige Gemisch aus der Perspektive der Arbeitswelt zu entwirren suchen, verbindet sich die Bezeichnung „Autonome Systeme“ mit Bildern von selbstlaufenden aufrechten Robotern, mit fahrerlosen Fahrzeugen oder mit selbstfahrenden Transportsystemen zur Anlieferung von Montagebauteilen. Kein Wunder: Wir sind es gewohnt, zunächst an Gegenständliches, an Physisch-Materielles zu denken. Wir sehen Hardware. Wir wollen anfassen.

Doch genau hier liegt eine der schwierigsten Herausforderungen im Wandel der Arbeitswelt. Die strategische Bedeutung der Bezeichnung „Autonome Systeme“ liegt nicht zuallererst in dem, was wir sehen und greifen können, sondern in dem, was nicht-materiell und im umgangssprachlichen Sinne „unsichtbar“ ist. Es ist die Software. Es sind insbesondere die Phänomene der „Autonomen Software-Systeme“ (ASS), der „selbstlernenden“ und „selbstentscheidenden“ Softwarelösungen, der Softwareanwendungen mit automatisierendem Vollzug in Verknüpfung mit „Cyber-Physischen Systemen“ (CPS).

Wir sind es gewohnt, vom sichtbaren mobilen oder nicht-mobilen Endgerät her zu denken, von der Displayfläche der Hardware. „Autonome Software-Systeme“ wirken aber – bildlich gesprochen – „hinter dem Bildschirm“, hinter dem Display. Statt uns auf das „Front-End“ zu konzentrieren, müssen wir uns besser im Gelände des „Back-End“ umsehen und dieses offensiv gestalten. Die Zukunft der Arbeit wird im „Back-End“ entschieden nicht im „Front-End“.

Die Verbesserung der Geräte-Nutzbarkeit, die Usability, die Ergonomie und die gesunde Handhabbarkeit sind zweifellos wichtig und dürfen nicht unterschätzt werden. Aber genauso wichtig ist die immer stärker zunehmende Kraft der Software, die faktisch Arbeitsabläufe und Geschäftsprozesse zu strukturieren und zu steuern versucht.
Es muss uns um die „Demokratisierung des Back-End“ (Schröter) und um die Demokratisierung der Prinzipien und generischen Kriterien für Algorithmen gehen. Wir benötigen offene interdisziplinäre Diskurse und Gestaltungskompetenz für die Idee des generisch (in seinen Grundsätzen) „mitbestimmten Algorithmus“ (Schröter).

In diesem Sinne muss den schon in der Arbeitswelt praktisch angekommenen Phänomenen der „Autonomen Software-Systemen“ (ASS) unsere wachsende und immer größer werdende Aufmerksamkeit gelten.

 

Gibt es eine „soziale Künstliche Intelligenz“?

Diese Frage stellte jüngst ein IBM-Betriebsrat auf einer gemeinsamen Veranstaltung des Betriebsräte-Netzwerkes ZIMT, der IG Metall Heidelberg und des Forum Soziale Technikgestaltung. Sollen wir die „KI“ eher verhindern oder besser einer Regulation unterwerfen? Der Kollege sprach Klartext: Man solle seine Kraft nicht dafür verwenden, Unvermeidbares zu verhindern, als vielmehr beobachten, verstehen, Folgen abschätzen, bewerten und dementsprechend ein verbindliches „Regelwerk“ aufbauen.
Entscheidend sei, dass man als Betriebsrätin und Betriebsrat, als Personalrätin und Personalrat im besten Sinne des Wortes „am Ball bleibt“: „Wir müssen verstehen, was möglich ist“, um gestalterisch handeln zu können.

Für die weitergehende Debatte über „Künstliche Intelligenz“ (KI) erscheint es ergänzend sinnvoll zu erkennen, dass es sich bei der momentanen öffentlichen Verwendung des Kürzels „KI“ – ähnlich wie bei der Nutzung des Begriffs „Industrie 4.0“ – um eine zumeist oberflächliche Marketing-Sprache handelt. Menschen mit wenigen Kenntnissen über „KI“ soll diese Technikverknüpfung als verzaubernde Welterlösungsformel vermittelt werden. Was Ende der 80iger Jahre die „Schlanke Produktion“ war, was Mitte der 90iger das Wort „Multimedia“ besagte, was ab 2011 die Marke „Industrie 4.0“ werden sollte, dies geschieht derzeit mit dem Begriff „Künstliche Intelligenz“.

Der Begriff wird wie eine Art Breitbandantibiotikum verkündet. „KI“ könne alles, mache alles und bestimme die Zukunft. Wohlmeinende Diskutanten verstärken diesen Trend, indem sie Horrorszenarien an die Wand malen und die Marketingwirkung verstärken. Die „KI“ übernehme die Herrschaft und vernichte 80 Prozent der Arbeitsplätze. Doch bei nüchterner Betrachtung befinden sich die im Alltag anwendbaren „KI“-Systeme – mit Ausnahme der bereits eingeführten bzw. in Einführung befindlichen „ASS“ – auf einem recht geringen Niveau. Was im Labor jenseits des Datenschutzes und jenseits der Mitbestimmung technisch in ausgewählten Vorgängen in geschützter Umgebung klappt, ist deshalb noch lange nicht für die Arbeitswelt, für Fertigung und Dienstleistung tauglich.

„KI“ verstanden als Software-Anwendung („Autonome Software-Systeme“ ASS) ist in strukturierten und geschlossenen Netzräumen erfolgreich und sehr produktiv. Doch „KI“ im offenen Netz hat seine Bewährungsprobe oftmals noch vor sich. Dies gilt umso mehr dann, wenn „KI“ mit Robotern und autonomen Fahrzeugen verbunden wird. Die Werbe- und Marketingsprache verkündet uns „Lösungen“ auf dem Niveau einer Show am Messestand.

Die Tatsache, dass zwischen Marketing-Ankündigung und tatsächlichem Nutzungsniveau eine große Differenz besteht, stellt für gewerkschaftliches Handeln eine Chance dar. Es gilt, das vorhandene Zeitfenster (Differenz zwischen jetzigem Marketing und erhoffter späterer Nutzung) zu einer aktiven „vorausschauenden Technikgestaltung“ (Schröter) zu nutzen. Um „KI“ so zu gestalten, dass sie klimaschonend, sozial, rechtskonform und beschäftigungssichernd wirkt, bedarf es ausgewiesener Gestaltungskompetenz. Diese auf der Seite der Beschäftigten zu stärken, sollten unsere Bemühungen gelten. Noch gibt es keine „soziale Künstliche Intelligenz“.