Licht und Schatten im sogenannten „KI-Diskurs“

Als vor nahezu 35 Jahren an vielen Universitäten das Fach Informatik eingerichtet wurde, gab es aus heutiger Sicht geradezu merkwürdige Diskussionen. Der Weg der Fakultätsgründungen spülte nicht selten einen besonderen Typ des männlichen Forscherdrangs auf die Lehrstühle. Dieser Typus verbat sich die Einmischung von Seiten der Sozialwissenschaften und wehrte sich gegen Anfragen aus der Zivilgesellschaft. Diese Einmischungen würden zum einen die Freiheit der Wissenschaft beeinträchtigen. Zum anderen seien sie in sich unlogisch, da die Informatik nur Grundlagenforschung betreibe und keinen direkten Anwendungsbezug zur Gesellschaft habe. Mit dieser Abwehrhaltung wollte sich die (damalige) konstruktive Kritik an der (damaligen) Informatik nicht zufrieden geben. Nach kurzer Zeit entfalteten sich an mehreren Hochschulen Forschungszusammenhänge und Institute unter dem Namen „Informatik und Gesellschaft“.

Auch der heutige Verlauf des Diskurses um die sogenannte „Künstliche Intelligenz“ bringt vergleichbare Momente von Licht und Schatten hervor. Es ist ermutigend festzustellen, dass in den Forschungen und Entwicklungen modernster Softwaresysteme zumeist offene Gesprächsverhältnisse vorherrschen und eine große Bereitschaft vorzufinden ist, mit zivilgesellschaftlichen Gruppen in den Dialog zu treten. Dennoch scheinen auch bestimmte Haltungen des Sich-Abgrenzens und des Denkens-in-Elfenbeintürmen zurückzukehren. Wenden wir uns jüngsten Beispielen zu:

Immer mehr schiebt sich in der aktuellen Debatte über die Gestaltung algorithmischer Entscheidungssysteme die Frage in den Vordergrund, ob es besondere Zulassungskriterien für die Nutzung und Anwendungen solcher Algorithmen und deren algorithmischer Entscheidungszusammenhänge geben sollte. Aus dem Forum Soziale Technikgestaltung heraus kommt der Vorschlag nach einem „mitbestimmten Algorithmus“. Dazu haben die Diskussionen mit Kolleginnen und Kollegen dreißig Kriterien für Zulassungen ergeben. Beim Versuch, diese Kriterien, diese Vorschläge aus dem Kreis der Zivilgesellschaft der „KI“-Forschungsgemeinde vorzustellen, kam uns das Argument entgegen, dass die Forschung dieser „KI“-Gemeinde lediglich Grundlagenforschung betreibe und diese Forschung keinen direkten gesellschaftlichen Anwendungsbezug ausweise. Das Forum solle lieber mit der Anwendungsforschung reden.

Über eine solche Aussage kann man nur den Kopf schütteln. Davon abgesehen, dass der Übergang zwischen Grundlagenforschung und Anwendung im Feld moderner Softwareforschung geradezu fließend ist, und dass gesellschaftliche Anforderungen zum frühest möglichen Zeitpunkt in der Arbeit der Forschung Berücksichtigung finden sollten, schadet eine solche Argumentation vor allem dem Anliegen der „KI“-Community selbst. Sie unterminiert die eigene Glaubwürdigkeit. Wer die letzten rund vierzig Jahre Forschung in der Technikfolgenabschätzung und in der Technikfolgenforschung betrachtet, stellt zudem unumwunden fest, dass der Abgrenzungsschritt („Grundlagenforschung“) auch einer modernen Methodendiskussion nicht standhält.

Mit einem weiteren Kopfschütteln muss man einen anderen Vorgang betrachten. Da hat sich ein kompetenter Kopf der verdienstvollen Aufgabe zugewandt, die nationale und internationale Diskussion zu durchforsten, um zu prüfen, welche Anforderungen akademische Autorinnen und Autoren an die Entwicklung neuer sogenannter „KI-Anwendungen“ formulieren. Erfreulich war im Ergebnis, dass die Anforderung nach Schutz der Privatheit den Spitzenplatz einnahm. Es folgten weitere – auch aus gewerkschaftlicher Sicht – gute Kriterien. Auf die Frage aber, warum nicht auch die vielfältigen Anforderungen aus der Zivilgesellschaft in diese wertende Übersicht aufgenommen wurden, kam die geradezu frappierende Antwort, dass er mit seinem Aufsatz im Wettbewerb mit internationalen Wissenschaftlern stehe und da passe der zivilgesellschaftliche Ansatz nicht hinein.

Zugegeben, die beschriebenen Beispiele zum Kopfschütteln sind Einzelfälle. Viele Akteure aus der Forschung würden über besagtes Verhalten selbst den Kopf schütteln. Dennoch ist es für die zivilgesellschaftliche Seite das Gegenteil von Ermutigung.

 

Wunderliches aus dem „KI“-Wunderland

Ist es ein vorübergehendes kulturelles Phänomen oder ein neuer aktiv begünstigter Trend? Immer häufiger findet sich in Veranstaltungen ein ähnlicher Typus von Personen zur Diskussion eines gemeinsamen Themas zusammen: Es sind Männer, ältere Männer über siebzig, zumeist ehemalige Ingenieure und Informatiker, die heute im aktiven Unruhestand sind. Sie unterstreichen die zunehmende Bedeutung der „künstlichen Intelligenz“ und beschwören die Macht und Potenziale der Technik. Drohszenarien und Hoffnungsträume gleichen Inhalts machen die Runde. Strittig ist im Wesentlichen der Zeitfaktor: Wird die „KI-Superintelligenz“ die Macht über die Menschheit in dreißig, siebzig oder neunzig Jahren übernehmen? Das Ergebnis sei jetzt schon klar. Die „Superintelligenz“, die sogenannte „starke KI“ käme und sei nicht mehr aufzuhalten. Gepaart wird der technikzentrierte Monolog mit dem Hinweis auf die notwendige „evolutionäre“, biologische Veränderung des Menschen. Das neue Menschenbild sieht die Technik nicht als hilfreiche Assistenz für den Menschen, sondern den Menschen als körperliche Übergangsstation zum dauerhaften digital-virtuellen Weiterleben eines Ichs.

Mag sein, dass manche Leserin, mancher Leser, diese Beschreibungen als esoterischen Wunderglauben oder als Überreste später Männerträumereien ansieht. Leider meinen es diese genannten Personen ernst. Sie wollen die Öffentlichkeit zugunsten ihres Zukunftsdiskurses missionieren und – zumindest ein Teil von ihnen – aktiv bejahend dafür werben. Hält man dieser Gruppe vor, sie würden damit transhumanistisches Gedankengut transportieren und rechtliche Grundprinzipien in Frage stellen, reagieren sie gelassen. Sie seien keine Ideologen und im Übrigen würde die Erbschaft unserer bisherigen ethischen Spielregeln durch den praktischen Utilitarismus (die sich einschleichende Form praktischen Nützlichkeitshandelns, auch wenn man wisse, dass man jenseits rechtlicher Regeln sei) de facto verändert und nivelliert. Sie fordern Freiheit, Freiheit für die Wissenschaft, Freiheit für die Technik, Freiheit für den Roboter, Freiheit für den Wandel.

Solange diese Männerrunden nur beim Bier Träume austauschen, könnte man zurückhaltend und gelassen bleiben. Es ändert sich allerdings abrupt, wenn solche Männerrunden sich prominente Redner als Gäste einladen, die die rechtsstaatlichen Spielregeln als neuen Gegner ausgeben. Einer dieser Prominenten gab von sich, dass er den zentralen Gegner der „Künstlichen Intelligenz“ gefunden habe. Es sei die EU-Datenschutzgrundverordnung!

Diese Aussage erfolgte einige Wochen nachdem die Datenschutzbeauftragten der Republik in ihrer „Hambacher Erklärung“ im Mai 2019 die zentrale Bedeutung der EU-DSGVO für die rechtsstaatliche Bändigung von „KI“-Anwendungen unterstrichen. Dort heißt es unter anderem:

Systeme der Künstlichen Intelligenz (KI) stellen eine substanzielle Herausforderung für Freiheit und Demokratie in unserer Rechtsordnung dar. Entwicklungen und Anwendungen von KI müssen in demokratisch-rechtsstaatlicher Weise den Grundrechten entsprechen. Nicht alles, was technisch möglich und ökonomisch erwünscht ist, darf in der Realität umgesetzt werden. Das gilt in besonderem Maße für den Einsatz von selbstlernenden Systemen, die massenhaft Daten verarbeiten und durch automatisierte Einzelentscheidungen in Rechte und Freiheiten Betroffener eingreifen. Die Wahrung der Grundrechte ist Aufgabe aller staatlichen Instanzen. Wesentliche Rahmenbedingungen für den Einsatz von KI sind vom Gesetzgeber vorzugeben und durch die Aufsichtsbehörden zu vollziehen. Nur wenn der Grundrechtsschutz und der Datenschutz mit dem Prozess der Digitalisierung Schritt halten, ist eine Zukunft möglich, in der am Ende Menschen und nicht Maschinen über Menschen entscheiden. […]“

 

Der künstliche Mensch? Menschenbilder im 21. Jahrhundert

Unter diesem Titel haben sich Aktive aus dem Forum Soziale Technikgestaltung und aus dem Kreis der Partner zusammengefunden, um im Angesicht der sogenannten „Künstlichen Intelligenz“ Beiträge aus der Perspektive der Gewerkschaften, der Sozialwissenschaften, der Philosophie, der Religionskritik und der Jurisprudenz über den Mensch zu verfassen. Nicht die Technikanalyse steht im Vordergrund sondern die Frage nach der Rolle des Menschen und dem Menschenbild. Die Beiträge wurden zusammengeführt und als 125seitiger Schwerpunkt in dem mehr als 260 Seiten umfassenden Journal „Latenz“ im Oktober 2019 (Latenz 04/2019) veröffentlicht.

Ist die Frage nach einem ethischen Menschenbild ein überholter Romantizismus oder eine soziale Notwendigkeit der Aufklärung für den Zusammenhalt von Gesellschaften? Was sind die zukunftsweisenden Erbschaften einer Jahrhunderte übergreifenden Diskussion um das Bild des Menschen? Worauf basiert ein solidarisches Menschenbild? Welches Menschenbild transportieren die Bürger- und Menschenrechte? Wie lässt sich vermeiden, dass einseitig gesetzte und in Technik implementierte Profile von digitalen Figuren den demokratischen Regeln und Rechten der Vielfalt, der Integration und Inklusion zuwiderlaufen? Welche Konsequenzen haben die aktuellen technischen wie gesellschaftlichen Transformationsprozesse für eine philosophische Anthropologie?

Mit seinem Beitrag „Menschenbilder, Visionen, Normen: Orientierungen für ‚Gute Arbeit mit KI‘“ greift der Ver.di-Gewerkschafter Lothar Schröder in die Kontroverse um die „Künstliche Intelligenz“ ein. Aus arbeitsweltlicher Perspektive ermutigt er zur Weiterentwicklung der Humanisierung der Arbeit durch die Selbstbestimmung des Menschen: „Den Menschen als digitale Maschine zu deuten und ihn entsprechend programmierten, ‚lernenden‘ Systemen auszusetzen oder gar unterzuordnen, muss zwangsläufig zu inhumanen und inakzeptablen Resultaten führen.“

Für das „Recht auf Irrationalität“ angesichts der „zunehmenden Unbewohnbarkeit von Fiktionen“ spricht sich der Soziologe Stefan Selke aus. In Hinblick auf Big Data und die Verschiebung des Humanum durch erweiterte Digitalisierungen plädiert der Autor für die „selbstbestimmte Erzählbarkeit.“ Der Tübinger Philosoph Helmut Fahrenbach geht der anthropologischen Frage im Denken von Ernst Bloch nach. Unter dem Titel „Das Leben künstlich oder menschlich machen?“ übt Annette Schlemm philosophische Kritik an den Denkgebäuden des Transhumanismus. Sie verteidigt die zivilgesellschaftliche Vielfalt gegen technikgläubigen Reduktionismus. In brillanter Schärfe zeigt uns der Jurist Ingo Müller die Relevanz der Grundrechte auf und, „dass im Zentrum unserer Werteordnung die Grundrechte stehen, nicht Staat oder Kirche, sondern der Mensch“.

In einem Interview von Johanna Di Blasi kommt der Filmemacher Alexander Kluge zu Wort. Mit seiner Formel von der „Achtung vor Robotern“ setzt er sich mit der „sozialen Intelligenz der Maschinen und Goethes Homunculus, der klüger ist als der Mensch“ auseinander. Aus der Schweiz meldet sich Kurt Seifert mit einem philosophisch-politischen Text zu Wort: „Was fehlt? Transhumanismus als Anti-Utopie“. Mit der Widersprüchlichkeit und der historischen Belastetheit des Terminus „Der neue Mensch“ verknüpft der Autor frühe Diskussionen im Russland der zwanziger Jahre mit späteren autoritären Terrorformen Stalins und Mao Tse Tungs. Gegen eine einseitige Aufhübschung der Debatte um die sogenannten „Künstliche Intelligenz“ nimmt Welf Schröter in seiner pointierten nachdenklichen Polemik „Warum der Begriff ‚KI‘ nicht als ‚künstliche‘ sondern nur als ‚kleine‘ oder ‚keine Intelligenz‘ ausgeschrieben werden sollte“ aus gestaltungsspezifischer Sicht Stellung. Anknüpfend hat sich der Sozialwissenschaftler György Széll auf den Weg gemacht, eine umfangreiche, wertende Sammelrezension zu „KI“-Publikationen zu erstellen. Unter dem Titel „Homo sapiens demens“ bewegt er sich durch die Literatur.

Buchangaben: Latenz – Journal für Philosophie und Gesellschaft, Arbeit und Technik, Kunst und Kultur. Ausgabe 04|2019. Der Künstliche Mensch? Menschenbilder im 21. Jahrhundert. Hrsg. von Irene Scherer und Welf Schröter. Redaktion: Matthias Mayer, Mathias Richter, Inka Thunecke, Irene Scherer und Welf Schröter. 2019, 264 Seiten, 34,00 Euro, ISBN 978-3-89376-185-2.

 

Das herausfordernde FST-Planspiel „BABSSY“

Das Netzwerk „Forum Soziale Technikgestaltung“ (FST) lädt zur Nutzung des von ihm entwickelten neuen Planspiels „BABSSY“ ein. Die Abkürzung steht für „BetriebsratsArbeit auf Basis ,Autonomer Software-SYsteme‘“. Unter dem Planspiel ist ein eintägiger Bildungsbaustein mit rund sieben Stunden Länge im Rahmen eines Weiterbildungsseminars für Betriebsrätinnen und Betriebsräten zu verstehen.

„BABSSY“ will die Gestaltungskompetenz der Betriebsratsgremien stärken. In einem Szenario sollen Kolleginnen und Kollegen die sich verändernden Arbeits- und Wirtschaftsabläufe erkennen und eigene Handlungsschritte simulieren lernen. Was bedeutet der Einsatz bestimmter neuer Software-Systeme für die Wertschöpfung im Betrieb und die Wertschöpfungskette zwischen den wirtschaftlichen Akteuren?

Im Zentrum des Lernprozesses steht der Erwerb des Verständnisses und der Gestaltungsmöglichkeiten von sogenannten „selbstlernenden“, „selbstdenkenden“ bzw. „autonomen“ Software-Systemen. Natürlich „lernen“ und „denken“ diese Software-Systeme nicht wirklich. Sie stellen vielmehr außerordentlich hochspezialisierte und zum Teil sehr leistungsfähige mathematisierte Software-Werkzeuge dar. Das Planspiel will in mehreren, über den Tag verteilten Schritten, die Beteiligten mit den Herausforderungen vertraut machen. Das Ziel ist die Vermittlung von Orientierungswissen an Betriebs- und Personalräte, Vertrauensleute und Beschäftigte über Möglichkeiten der sozialen Gestaltung dieses Typs von Software im Rahmen der „digitalen Transformation“. Die Vermittlungsbausteine fußen vor allem auf der Analyse der „nachholenden Digitalisierung“ und der Bedeutung „Autonomer Software-Systeme“ (ASS).

Grundlage der Überlegungen aus dem „Forum Soziale Technikgestaltung“ ist dabei ein Perspektivwechsel: Die „autonomen Software-Systeme“ (ASS) stellen nicht nur Objekte der Mitbestimmung und der Gestaltung dar. Die Diskussionen im FST eröffnen zugleich den Blick auf neue Möglichkeiten des Handelns von Betriebs- und Personalräten. Im Zusammenhang mit dem FST-Planspiel entfaltet sich das Szenario einer möglichen Nutzung der ASS zu einer optimierten Betriebsarbeit und als Werkzeuge der Mitbestimmung durch die Beschäftigtenvertretungen selbst. Das Planspiel hilft beim Verständnis der „vorausschauenden Arbeitsgestaltung“ und bei der Annäherung an den „mitbestimmten Algorithmus“ (Schröter).

In einer Reihe außergewöhnlicher Zukunftsworkshops anlässlich des 25-jährigen Bestehens des „Forum Soziale Technikgestaltung“ arbeiteten sich die Kolleginnen und Kollegen aus Betriebs- und Personalräten über zwei Jahre hinweg buchstäblich in die Zukunft: „Wir sollten die neuen technischen Potenziale nicht nur als Teil der Arbeitswelt gestalten, wir sollten sie auch selbst im Betriebsrat anwenden. Mitbestimmung mit Hilfe von ASS-Echtzeit-Bedingungen.“

Im Idealfall nehmen 20 oder 25 Personen an „BABSSY“ teil. Das didaktisch angelegte und vom FST moderierte Planspiel mit einem vorgegebenen Basisszenario für einen simulierten betriebsübergreifenden Mitbestimmungsprozess und verschiedenen Rollen kommt völlig ohne Techniknutzung aus. Tisch, Stuhl, Papier, Bleistift und ein neugieriger Blick wollen Echtzeit in Zeitlupe zerlegen, um Nachvollziehbarkeit, Transparenz und Interventionsmöglichkeiten gedanklich vorausschauend erlebbar zu machen. Der „Klick“ muss im Kopf passieren, bevor er technisch simuliert wird.

Die Durchführung und Moderation des Workshops erfolgt über das Forum Soziale Technikgestaltung. Für das ganztätige Seminar fallen n. V. Honorar- und Reisekosten und ggf. Übernachtungskosten an. Kontakt zu BABSSY: schroeter@talheimer.de

 

Wenn die eigene Arbeit fremd wird

Für unsere Großeltern schien die Arbeitswelt noch einigermaßen übersichtlich: Mit der eigenen Hände Arbeit entstanden Produkte, die sinnlich, haptisch fassbar waren. Arbeit war materielle Arbeit, war Arbeit an der Materie, egal ob Holz, Kunststoff, Keramik, Stahl, Metall, Brot oder die Pflege eines Menschen. Es gab im Guten eine direkte nahe Beziehung zwischen Mensch und Arbeitsergebnis. Der Mensch konnte das Arbeitsergebnis berühren. Daraus zog der arbeitende und sich vergegenständlichende Mensch sein Selbstbewusstsein, seine Identität, sein Selbstverständnis. Berufsbezeichnungen orientierten sich an der zu verarbeitenden Materie. Als Kennzeichen der Zukunft der Arbeit galt die Materie.

Viele Jahrzehnte später und nach mehr als dreißig Jahren Digitalisierung müssen wir heute von der Annahme ausgehen, dass in einer vergleichsweise kurzen, überschaubaren Zeit von nur wenigen Jahren sich ein struktureller Umbruch in allen arbeitsweltlichen Bereichen vollzieht. Die direkte sinnliche Beziehung von arbeitendem Mensch und Arbeitsprodukt nimmt tendenziell ab. Zwischen Mensch und Produkt schieben sich eine oder mehrere digital-virtuelle Plattformen. Ohne den Zugang zu einer Plattform wird bald der direkte Zugriff zu dem zu leistenden Arbeitsauftrag kaum mehr möglich sein. Die Fähigkeit, sich auf und in Plattformen bewegen zu können, entscheidet zunehmend über die Möglichkeit des Zugangs zur Arbeit. Die Zugänglichkeit der Plattform regelt immer mehr die Zugänglichkeit zur physischen Arbeit.

Menschen, die dem Hand-Werken verbunden sind und vor allem über intuitives Erfahrungswissen verfügen im Sinne eines „Gedächtnisses der Hände“ (Schröter), werden gedrängt werden, sich verstärkt dem Kopf-Werken zuwenden zu müssen. Der Grad der Abstraktion und Komplexität nimmt für jede/n deutlich zu. Ob mobile Pflege oder Werken in der Fertigung, ob Verpackungskraft oder Stuckateur, der Umgang mit dem Display und das Verstehen-Können, was „hinter“ dem Display geschieht, verändert das Selbstwertgefühl.

Für viele wird sich dieses technische Hemmnis zu einer sozialen und qualifikatorischen Barriere entwickeln. Herausforderungen in der beruflichen Bildung und Weiterbildung werden demnach nicht nur eine neue fachliche Anforderung darstellen. Vielmehr wird die grundsätzliche Befähigung, mit abstrakten Abläufen und Prozessen auf den Plattformen nachvollziehbar umgehen zu können, zu einer Erweiterung unserer Schlüsselqualifikationen führen müssen. Der Umgang mit nicht-materieller Arbeit, das Verständnis dieses Typs von Arbeit und der Erwerb von „Komplexitätskompetenz“ (Schröter) werden zu zentralen Erfolgskriterien kommender Erwerbsbiografien. Das materielle Werken folgt den digitalen Vorgaben. Die Zukunft der Arbeit wird im virtuellen Raum entschieden.

 

Warum gerade viele Jugendliche eine besondere Unterstützung beim Übergang von der Schule in den Beruf benötigen

Seit vielen Jahren befasst sich eine umfangreiche Fachdebatte mit dem Übergang der jungen Menschen von der Schule in einen Beruf bzw. in eine Berufsausbildung. Schulen, Berufsschulen, Jugendsozialarbeit, Produktionsschulen, Jugendhäuser, betriebliche Ausbilder, überbetriebliche Einrichtungen des Handwerks, Gewerkschaften, Kirchen, SozialpädagogInnen und viele andere bemühen sich, jenen jungen Menschen, die unterschiedliche Formen der Unterstützung benötigen, passgenaue Hilfe zukommen zu lassen.

Dabei liegen diese Hilfen oftmals nicht primär im Bereich des Erwerbs von beruflichen Fähigkeiten und Kenntnissen sondern eher auf dem Feld der sozialen Umgangsformen wie Pünktlichkeit, Verlässlichkeit, Selbstvertrauen, Kommunikationskompetenz, Arbeitsschutz, Fähigkeit zur eigenen autonomen Lebensplanung etc. Es sind zumeist die „weichen“ Faktoren, die über Erfolg oder Misserfolg im beruflichen Leben entscheiden.

Viele dieser Jugendlichen täuschen dabei ihre Umwelt, indem sie ihnen demonstrieren, dass sie in der Lage sind, besonders flink die Display-Oberfläche ihres Smartphones zu bedienen. Die „LOL‘s“ und „XoXo’s“ zeugen von vermeintlicher Onlinekompetenz. Viele ältere Betreuerinnen und Betreuer glauben sich in der Defensive, weil sie die Fingerfertigkeit der Jungen auf dem Display für „digitale Kompetenz“ halten. Doch hier gilt es, die vielen Frauen und Männer aus der Jugendsozialarbeit zu ermutigen, denn die Kompetenz im Umgang mit Virtualität lässt sich nicht an der Geschwindigkeit der Finger ablesen.

Es geht vielmehr um die Frage, ob ein junger Mensch in der Lage ist, Zusammenhänge, Prozesse und Prozessabläufe nachzuvollziehen und zu verstehen. Man könnte es bildhaft auch so ausdrücken: Nicht das, was man auf dem Bildschirm sieht, ist das Relevante, sondern jenes, was durch die Berührungen der Buttons „hinter dem Display“ ausgelöst wird. Hier liegt eine der großen Herausforderungen: Immer mehr junge Menschen verstehen die Arbeitszusammenhänge nicht. In wachsendem Maße sollte deshalb ein Schwerpunkt darauf gelegt werden, jungen Menschen den Umgang mit Abstraktion und Komplexität zu erschließen.

Wer seine Arbeitsinhalte, Arbeitsvorgänge und Arbeitsabläufe nicht ausreichend nachvollziehen kann, wer nicht wahrnimmt, dass sich die virtuellen Anteile der Arbeit immer mehr komplementär zur materiellen Arbeit verhalten, wird sich auf Dauer nicht mit seiner Arbeit identifizieren können. Fremdheit in der Arbeit, Entfremdung als Lebensgefühl führt nicht zur Stärkung des eigenen Selbstvertrauens. Im Gegenteil.

Dies dürfen die Akteure in der sich überschlagenden Debatte über die „Digitalisierung der beruflichen Ausbildung“ nicht vergessen. Die Suche nach geeigneten Wegen zur Stärkung der individuell im Team angeeigneten „Komplexitätskompetenz“ (Schröter) muss verstärkt werden.

 

Der 100. Blog-Eintrag: Bringt die digitale Transformation eine Rückbildung oder eine Weiterentwicklung der Arbeitswelt?

Als vor rund fünfzig Jahren das einflussreiche Buch von Johannes Agnoli und Peter Brückner mit dem Titel „Die Transformation der Demokratie“ erschien, trug das Wort „Transformation“ etwas Warnendes und Bedrohliches in sich. Die Autoren analysierten die Geschichte der jungen Bundesrepublik Deutschland seit 1949. Dabei stellten sie eine Rückbildung und politisch gewollte Rückentwicklung („Involution“) der Demokratie fest. Deutlich wurde dies – so die Autoren – unter anderem an der Durchsetzung der Notstandsgesetze, wogegen die damalige außerparlamentarische Opposition laut protestierte.

Heute begegnet uns der Begriff „Transformation“ erneut, jedoch anders, diesmal als Verheißung, als „digitale Transformation“ von Wirtschaft, Arbeitswelt und Gesellschaft. Heute eröffnet der Begriff ein eher janusköpfiges Potenzial: Die digitale Transformation kann den Weg ebnen zu einer Ausweitung von Demokratie, sozialen Standards, Partizipation und Mitbestimmung oder aber zu deren gegenläufiger Tendenz. Auch die Rückbildungen von Demokratie und sozialen Standards sind denkbar.

Für viele Betriebsrätinnen und Betriebsräte gilt die digitale Transformation als Chance für eine Humanisierung der Arbeit und als Option für ein „Mehr Demokratie wagen“.

Neben der noch nicht aufgelösten Janusköpfigkeit zeigt der Transformations-Begriff noch eine weitere innere Spannung: Um den Prozess der digitalen Transformation nachvollziehbar und erklärbar zu machen, muss die Dynamik des Transformierens verlangsamt werden. Beteiligungsorientierte Demokratie benötigt Zeit. Verlangsamung aber beeinträchtigt – so die Stimmen der Arbeitgeber – die Wettbewerbsfähigkeit der Unternehmen und ihrer Produkte. Ein betriebsrätlich-gewerkschaftliches Handeln muss sich an der Lerngeschwindigkeit der Mehrheit der Gewerkschaftsmitglieder orientieren. Als vermeintliche „Avantgarde“ den Mitgliedern vorauszueilen und ihnen dabei zu enteilen, kann keine tragfähige Lösung sein.

Zugleich müssen sich Betriebsrätinnen und Betriebsräte aber auch von Geschwindigkeiten technikinduzierter Innovationsprozesse leiten lassen. Gestaltungskompetenz der Beschäftigtenvertretungen kann nicht bedeuten, den Technikeinführungen hinterher zu laufen. Die zunehmende Einführung „Autonomer Software-Systeme“ (ASS) in Wartungsprozessen, Instandhaltung, Personalmanagement, Logistik und Geschäftsprozesssteuerungen verlangt vom Gremium Betriebsrat die Kompetenz zu „vorausschauender Arbeitsgestaltung“. Die Gestaltung der ASS erfordert eine deutliche Beschleunigung des Handelns der Beschäftigtenvertretungen.

Für die Lernprozesse des Betriebsratsgremiums kann die Spannung zwischen Verlangsamung und Beschleunigung nicht nach einer Seite aufgehoben werden. Die Kunst besteht darin, die Spannung zwischen beiden Polen aufrecht zu erhalten. Das mag je nach Lage der Kontroverse belastend sein. Aber es ist die einzig vernünftige Möglichkeit, den Zusammenhalt zu wahren.

 

Schon wieder digital? Was ist neu am Neuen? Was ist alt am Neuen?

Wie schon mehrfach beschrieben, lässt sich die seit Anfang der neunziger Jahre vollziehende Digitalisierung der Arbeitswelt in mehrere Stufen gliedern. Eine solche Gliederung hilft beim Verständnis.

Zunächst aber sollte man sich von der Marketing-Oberfläche der vermeintlich „digitalen Revolution“ trennen, die jährlich irgendwo in der Republik von nicht ausreichend informierten Zeitgenossen ausgerufen wird. Betrachtet man die digitalen Schlagwort-Wellen mit etwas nüchternem Abstand, fällt eine wiederkehrende Flachheit auf. Was Anfang der 90iger Jahre als „Informatisierung“ lief, trug Mitte der neunziger Jahre den Namen „Multimedia“. Dieser Bezeichnung folgte die „Electronic“-Welle mit E-Commerce, E-Business, E-Government, E-Working etc. Kaum weitere fünf Jahre später war alles „smart“: Smart Work, Smart Factory, Smart Government etc. Ein weiteres halbes Jahrzehnt danach schäumte die Vier-Null-Welle durch das Land: Industrie 4.0, Arbeit 4.0, Bildung 4.0, Verwaltung 4.0 etc. Derzeit ist alles „KI“, also „Künstliche Intelligenz“. Mit einer kleinen Portion Humor lässt sich prophezeiten, dass danach alles „Neuro“ sein wird. Am Horizont wartet dann schon der Marketing-Schlager „Organic“.

Auffallend aber ist, dass in der Regel inhaltlich fast immer dasselbe angeboten wird: Mobiles Arbeiten, Smartphones, elektronische Lernwege, Internet der Dinge, angereicherte Realität, kluge Brillen, Prozesssteuerungen etc. Die strukturellen Zielsetzungen („Alles hängt mit allem zusammen.“) haben sich nur wenig entfaltet, dafür ist die Marketing-Umrahmung umso intensiver. Die Basistechnologen für diese Themen sind in der Regel zehn, fünfzehn oder gar zwanzig Jahre alt. Diese Technologien werden nun an vielen Orten mit Updates und Upgrades sowie mit ergänzten grafischen Oberflächen als vermeintlich neu implementiert. Die Anwenderinnen und Anwender empfinden diese alten Lösungen subjektiv als neu. Mit den tatsächlichen Herausforderungen hat dies wenig zu tun. Für diese Implementierung älterer Techniklinien gibt es schon zahlreiche ältere Betriebs- und Dienstvereinbarungen, die angepasst werden können.

Was aber ist wirklich neu? Wo ist derzeit technologisch „vorne“? Während im Forum Soziale Technikgestaltung die oben beschriebenen Abläufe eher als „nachholende Digitalisierung“ (Schröter) bezeichnet werden, lässt sich in einem bestimmten Teil der Software-Entwicklung der evolutionäre Bruch zum tatsächlich Neuen erkennen. Seit mindestens vier Jahrzehnten wächst die Zahl der software-technischen Werkzeuge. Ein wesentlicher großer Teil der bisherigen Software-Entwicklung ist im wohlwollend besten Sinne des Wortes „gute dumme Software“ (Schröter). Damit sind Werkzeuge gemeint, die sich durch ihren Gebrauch, ihre Anwendung nicht verändern (von immanenten Sicherheitsupdates und Antivirenimpulsen einmal abgesehen). Diese „gute dumme Software“ „lernt“ und „denkt“ nicht.

Teile der „Autonomen Software-Systeme“ (ASS) hingegen nehmen ständig neue Daten auf, „bewerten“ sie auf der Basis verankerter Spielregelanweisungen (Algorithmen) und kommen dadurch zu neuen Ergebnissen. Diese ASS verändern sich als Werkzeuge durch ihre Anwendungen. Die Gestaltung solcher sich selbstverändernder Werkzeuge benötigt eine andere soziale Gestaltungskompetenz als jene zur Formierung der „nachhaltigen Digitalisierung“ bzw. der „guten dummen Software“.

Diesen sich verändernden ASS wird nachgesagt, dass sie „lernen“, „denken“, „bewerten“, „entscheiden“ und „ausführen“. Natürlich denken und lernen sie nicht wirklich. Aber die darin enthaltende Mathematik ist so brillant, dass die Menschen vor dem Bildschirm sie als „denkend“ und „lernend“ empfinden. Auch hier sitzt – wie schon häufig erwähnt – das Problem vor dem Bildschirm.

Dieser Bruch, der dadurch charakterisiert wird, dass „Autonome Software-Systeme“ sich als Werkzeuge selbst verändern und dass die bisherige „Handlungsträgerschaft Mensch“ schrittweise zur „Handlungsträgerschaft ASS“ werden kann, bildet die soziale, ethische und technische Schlüsselherausforderung im aktuellen Verlauf der Digitalisierung. Wo dieser Bruch zu erkennen ist, ist vorne. Dort muss sich gewerkschaftliches Handeln bündeln und intervenieren.

 

„Maschinenethik“ (Teil I): Annäherungen an einen schillernden und widersprüchlichen Begriff

Wer sich mit der Virtualisierung und Digitalisierung der Arbeitswelten befasst, stolpert schnell über die Erkenntnis, dass es neben den handfesten Veränderungen für arbeitende Menschen auch um Drittmittelmärkte, um Strategien zur Erlangung von staatlichen Fördermitteln und um zeitweise substanzlose Marketingauftritte geht. Dieses Auseinanderklaffen von realen Notwendigkeiten und bloßen Akquise-Shows begegnet den kundigen Betrachtenden nun auch auf der Bühne des Wortes „Maschinenethik“.

Wer sich unkundig in die Sprachwelten der „Maschinenethik“ vorwagt, zuckt beeindruckt zurück. Da treten wissenschaftliche Teams auf, die sich mit vermeintlich spektakulären Erkenntnissen aufmachen, Fördermittel aus den staatlichen Händen auf europäischer, Bundes- oder Landes-Ebene zu ergattern. Da werden „Wirklichkeiten“ beschrieben, die keine sind, um Aufmerksamkeit zu erheischen. So schreibt ein akademischer Kopf, dass das zentrale Zukunftsthema der Digitalisierung und Virtualisierung die Herausforderung sei, dass Maschinen nun Ethik und Moral besitzen und ausführen könnten.

Die Maschine wird zum bewusstseinsfähigen Subjekt ernannt, das durch Datensammeln und Auswertungen Bewusstsein, Reflexionskompetenz, Ethik und Moral erlangen könnte. Die vermeintliche „Künstliche Intelligenz“ verfügt in solchen Beschreibungen alsbald über „Künstliche Ethik“ oder noch besser – wie ein nach Aufmerksamkeit strebender Ethiker schreibt – über „Künstliche Tugend“.

Klar, wenn man ein solches Szenario den zuständigen Vergabestellen der Ministerien einreden kann, hat man den sechs- bis siebenstelligen Betrag schon gewonnen. Wer wollte angesichts solcher Dämonen an der Wand der Zukunft nicht den Steuer-Geldbeutel für kulturelle Prävention öffnen.

Bei allem Respekt vor Frauen und Männern aus Ingenieur- und Informationswissenschaften muss man laut „Halt“ rufen! Ein solches Verständnis und Szenario von „Maschinenethik“ ist schlicht inakzeptabel. Weder kann ein physischer Blechhaufen noch ein digitaler Software-Haufen im aufgeklärt sozialwissenschaftlichen, philosophischen und menschenrechtlichen Sinne Bewusstsein im Sinne des Humanum erreichen. Ein solches Gerede von „Maschinenethik“ will Aufmerksamkeit, will vorsätzlich verunsichern und den Golem herbeireden.

Betrachtet man die technologische Wirklichkeit des Status quo und die Arbeiten in Laboren, dann lässt sich zweifellos feststellen, dass hier Gigantisches geleistet wurde. Brillante Mathematik und hervorragende Informatik haben Software-Systeme (allen voran „Autonome Software-Systeme“) hervorgebracht, die in glänzender Weise zur Verfahrens- und Prozessteuerung geeignet sind. Diese Systeme spiegeln dem Menschen vor, dass die Software „denken“ könnte und der Mensch verhält sich entsprechend, um diese Projektion zu vervollkommnen.

Das Problem sitzt vor (!) dem Bildschirm. Der Mensch hält das Agieren der Software für Denken und orientiert sein eigenes Verhalten gemäß dieser Projektion. Nicht das nicht vorhandene Bewusstsein in (!) der Maschine ist zu hinterfragen, sondern das Naive im Bewusstsein des Menschen stellt die Herausforderung dar.

Gerade für einen konstruktiven und innovativen Umgang mit neuen digitalen Lösungen sollten wir uns nicht in die Sackgassen der Hollywood-Filme drängen lassen: Sogenannte „Künstliche Intelligenz“ mit Bewusstsein gibt es nicht. Auch nicht in naher Zukunft. Was es gibt, sind aufregend gute mathematische Anwendungen mit enormen Potenzialen. Diese gilt es, engagiert demokratisch und sozial zu gestalten. Lassen wir uns nicht von vermeintlichen „Maschinen-Ethikern“ davon abhalten.

 

„Maschinenethik“ (Teil II): Der Wandel des Menschenbildes

Wie oben beschrieben wollen die Anhänger der „Maschinenethik“ in Geräten und in der Software menschenähnliches reflexionsfähiges Bewusstsein entdeckt haben. Diese Annahme fußt auf einer Voraussetzung, die es dringend zu hinterfragen gilt. Wenn Maschinen Ethik und Bewusstsein besitzen, welches Verständnis von Ethik und Bewusstsein wird dabei zugrunde gelegt?

Wir kennen dieses Phänomen aus der Verbindung von Robotik-Entwicklung und Kinderpsychologie bzw. Kinderpädagogik. Die Forschungsteams, die menschenähnlichen (humanoiden) Robotern Bewegungen beibringen, greifen dabei auf biografisch-soziale Lernprozesse von Kleinkindern zurück. Wie lernen Kinder? Wie greifen und tasten sie? Wie wiederholen sie Bewegungen? Bei diesem Ansatz reduzieren die Robotik-Teams die Verhaltensmuster der Kleinkinder, um die abstrahierten Vorgänge technisch nachbilden zu können. Damit Roboter „lernen“ können, muss das Verhalten eines Kindes vereinfacht und reduziert werden. Solange sich alle Beteiligten darüber im Klaren sind und wissen, dass das tatsächliche und wirkliche  Verhalten von Kindern viel komplexer ist, besteht kein Risiko für Ideologisierungen.

Die Debatte um „Maschinenethik“ ist mit der Adaption des Verhaltens von Kindern zur Implementierung in Roboter methodisch vergleichbar. Zugespitzt formuliert bedeutet dies: Um in einem mathematisierten Software-Haufen „Bewusstsein“ zu entdecken, muss das Verständnis von Bewusstsein so heruntergefahren und reduziert werden, dass es technisch nachbildbar wird. Hinter der Frage, ob Maschinen eine Ethik und eine  Moral besitzen können, verbirgt sich die gravierende Frage, wie sich das Menschenbild und das Humanum anpassen müssen, um für solch eine „Maschinenethik“ passend zu sein.

Ein gewisser Teil derjenigen, die sich diesem Typ der „Maschinenethik“ verschrieben haben, arbeitet nicht an der Maschine oder an der Software sondern am Wandel des Menschenbildes. Die exzessivste Form davon stellen die „Transhumanisten“ dar, die unter dem Vorwand der biologischen Evolution die Verknüpfung von Organischem und Digitalem anstreben. Letztlich soll das ewige Leben dadurch erreicht werden, dass ein digitalisiertes menschliches Gehirn mit Bewusstsein in einer Hardware fort“lebt“.
In der Bundesrepublik haben bestimmte „Ethiker“ extra eine Partei gegründet. Ihre – vor allem männlichen – Vertreter versuchen, über vorhandene hiesige Organisationen und über honorige Stiftungen ihre ideologisierten, teilweise aus den USA kopierten Konzepte zu verbreiten.

Einige der amerikanischen Transhumanisten setzen für das Menschenbild der Zukunft drei zentrale Begriffe: männlich, weiß, digital. Dieser Typ von „Maschinenethik“ revidiert das Menschenbild der UN-Charta der Menschenrechte.