Missverständnisse um das „HomeOffice“

Seit Wochen wandert der Begriff „HomeOffice“ durch Zeitungen, Radio und TV-Meldungen. Als Reflex auf die Viren-Bedrohung wird abhängig Beschäftigten in Büros, Verwaltungen und Betrieben eine Neuerung vorgeschlagen: Sie mögen doch zeitweise vom „HomeOffice“ aus ihre Arbeit leisten. Dabei wird in Sprache und Bild der Eindruck erweckt,  es handele sich um eine extra für die Corona-Phase entwickelte Innovation. Dieser Eindruck und diese Botschaft ist falsch.

Die Idee der Einrichtung eines online angebundenen häuslichen Arbeitsplatzes ist schon mehr als dreißig Jahre alt. Das Modell des wechselnden Arbeitens zwischen Betrieb, zuhause oder unterwegs gehört unter die Überschrift des „mobilen Arbeitens“. Ein Unterpunkt des „mobilen Arbeitens“ wurde in den neunziger Jahren als „alternierende Telearbeit“ bezeichnet. Zu den Varianten des „mobilen Arbeitens“ haben Arbeitgeber und Beschäftigtenvertretungen (Betriebsräte, Personalräte, MAVs) schon vor über zwanzig Jahren eine Fülle von Betriebs- bzw. Dienstvereinbarungen abgeschlossen. Kern der Vereinbarungen war die rechtliche und technische Gleichstellung des Arbeitsplatzes in Betrieb bzw. Verwaltung mit dem Arbeitsplatz zuhause. „Mobiles Arbeiten“ ist nicht „Vier-Null“ und ist nicht neu. Die Botschaft, es sei neu und noch nie dagewesen, dient in der Regel dazu, die von Betriebs- und Personalräten errungenen sozialen Standards und Rechte zu hintergehen oder gar als nicht existent zu bezeichnen.

Ein weiterer wichtiger Punkt im „HomeOffice“-Szenario ist die Berücksichtigung von Arbeits- und Gesundheitsschutz. Dafür gibt feste Vorgaben, die nicht hintergangen werden sollten. Diese Standards helfen auch Selbstständigen im Umgang mit der „mobilen Arbeit“. Wer im „HomeOffice“ tätig ist, sollte den Inhalt des Wortes „Gefährdungsbeurteilung“ kennen und auf dessen Umsetzung achten.

„HomeOffice“ kann bei guter Gestaltung ein akzeptabler Baustein individeller Arbeitskultur und Zeitsouveränität sein. Jedoch sollten alle Akteure sich an den jahrelangen Erfahrungen und Standards orientieren. Die Aussage, „HomeOffice“ sei so neu, dass es keine Rahmensetzungen gäbe, ist eine Finte.

 

Mit der Idee des Wandels wirkliche Fächkräfte finden

In großen und kleinen Betrieben, in Handwerk und Verwaltung werden kompetente Mitarbeiterinnen und Mitarbeiter gesucht. Nicht selten spricht die Geschäftsleitung von „Fachkräften“, die dringend benötigt werden. Doch wer neue Mitglieder nur allein unter dem Gesichtspunkt der fachlichen Qualifikation sucht, begeht einen Denkfehler. Warum? Die gewünschten klugen Fachleute dürfen nicht nur versiert sein in ihrem beruflichen Können. Sie müssen auch in der Lage sein, die anstehenden Veränderungen der technischen und betrieblichen Abläufe zu kennen und mitzugestalten.

Wer als Führungskraft – etwa im Handwerk – Fachkräfte nur nach ihrem Fachportfolio einschätzt, investiert faktisch in die Vergangenheit, in die bisherige Wirkungsweise des Betriebes. Doch die Herausforderungen neuer Wertschöpfungsketten, neuer Globalisierungswirkungen und aktueller technischer Innovationen verlangen von Geschäftsleitung und Mitarbeiter-Team, den Wandel und Umbau der betrieblichen Prozesse neu zu denken.

Notwendig sind Fachkräfte für den Wandel, die mehr sind als nur Kräfte, die auf Vorhandenes setzen. Zu den Schlüsselthemen der Renovierungen gehören im Besonderen die Chancen und Bedrohungen, die von neuen Plattform-Welten kommen.

In der Vergangenheit wanderten einzelne Produkte wie Bücher, Schuhe, Parfüm, Haushaltswaren oder ähnliches aus dem Fachgeschäft um die Ecke hinaus auf nationale oder internationale Verkaufsplattform. Dort kann die Einzelkundschaft bestellen. Die Wertschöpfung wandert aus der Region ab. Kommunale Gewerbesteuereinnahmen sinken, da betriebliche Umsätze vor Ort zurückgehen. Die Zahl der Beschäftigten sinkt.

Ein vergleichbarer Prozess ist nun für die Verschiebung von Dienstleistungen hinein in digitale Plattformen zu erwarten. Damit werden Geschäfts- und Arbeitsprozesse zwischen Betrieb und Kundschaft, zwischen Betrieb und Betrieb, zwischen Betrieb und Lieferant, zwischen Betrieb und öffentlicher Verwaltung neu austariert. Wer in diesem tatsächlichen „Transformationsprozess“ nicht aufpasst, verliert seine Kundschaft an ferne Plattformen und an große Billig-Player, die vorgeben, fachlich verlässlich zu sein. Die zu suchenden neuen Köpfe, die erwünschten „Fachkräfte“ müssen diesen Vorgang des Wandels verstehen und mitbeeinflussen können. Es gilt, die Wertschöpfung des Handwerks und der Kleinbetriebe wie der kleinen Mittelständler am Standort zu halten.

Die Bedrohung kommt nicht primär von der Digitalisierung. Die Bedrohung kommt vom unzureichenden Verständnis der Plattformpotenziale und vom fehlenden Mut, sich mit der den notwendigen Umsatz sichernden Regionalisierung von Wertschöpfung intensiv zu befassen. Erforderlich ist ein mehrseitiger Dialog über praktische Gestaltungsschritte hin zu einer „vorausschauenden Regionalisierung“ (Schröter, BMAS-Projekt DigiGAAB) handwerklicher Wertschöpfungen auf der Basis neuester digitaler Möglichkeiten.

 

Ungleichzeitigkeiten und Latenz im Prozess der digitalen Transformation

In den meisten Kontroversen um die Wege des technologischen Umbaus der Arbeitswelt, der digitalen Transformation, finden Akteure zusammen, die unter dem Deckmantel des Pragmatischen darüber streiten, wie schnell die Nutzerin und der Nutzer qualifiziert werden können, um mit neuen Oberflächen, Displays, Software und anderen digitalen Werkzeugen umgehen zu können. Der Diskurs geht von Technik aus, konzentriert sich auf Technik und reduziert sich auf Technik. Dabei ist aus sozialwissenschaftlicher Perspektive seit spätestens den siebziger Jahren bekannt und offensichtlich, dass erfolgreiche Technikimplementierungen nur nachhaltig gelingen können, wenn die nichttechnischen Gestaltungsfaktoren wie Empfindung, Bewusstsein, Motivation, Erfahrung etc. auf gleicher Augenhöhe wie die technischen Umsetzungsinstrumente berücksichtigt und angewandt werden.

Mit anderen Worten: Wer Technikeinführungen nur technikzentriert zu realisieren sucht, wird keine dauerhafte Lösung erreichen, wird scheitern. Wirkliche Innovationsprozesse basieren jeweils zur Hälfte aus technischen und aus sozialen Innovationen. Technikeinführungen ohne Integration des „Menschelns“ bleiben teure Technikruinen. Das haben die Debatten über die menschenleere Fabrik CIM oder über betriebliche Wissensmanagement-Systeme ausgiebig gezeigt.

Mit der schrittweisen forcierten Anwendung digitaler Werkzeuge in den Arbeitswelten seit den achtziger bzw. neunziger Jahren, hat sich die Spannung zwischen der alten analogen Lebenserfahrung in dato bisherigen Arbeitsumgebungen und den neuen Erfahrungen mit Arbeitsbeziehungen unter dem Anspruch der digitalen Transformationen erheblich zugespitzt. Zwischen vertrauter Vertrautheit und nicht-vertrauter Fremdheit polarisiert das Bewusstsein der abhängig Beschäftigten.

Während im Alltag in hoher Geschwindigkeit das technisch Neue den Menschen fordert, reagiert sein Bewusstsein auf Irritationen zumeist mit Abwarten oder dem Rückgriff auf Vorhandenes. Mit alten Erfahrungen wendet sich die/der Beschäftigte dem Gewandelten zu. Wenn der Wandel zu schnell geht oder Befürchtungen auslöst, finden nicht nur Rückgriffe auf alte Erfahrungen sondern vermehrt auch Rückgriffe auf alte Erklärungsmuster statt. Wenn aber alte Erklärungen dazu herhalten müssen, Neues zu verstehen, dann verhält sich altes und neues Bewusstsein ungleichzeitig zueinander. Wenn aber vertraute Lebensmuster keinen Zugang zu Veränderungsprozessen finden, wenn alte Erfahrungen neue Erfahrungen blockieren, dann kann ein Innovationsprozess nicht erfolgreich realisiert werden.

Eine der Schlüsselherausforderungen im Prozess der digitalen Transformationen liegt in der Aufhebung der Ungleichzeitigkeiten im Bewusstsein der arbeitenden Menschen, in der Bewusstmachung intuitiver Erfahrungen und latent wirkender, gesammelter Hoffnungen wie auch Enttäuschungen. Menschen mit solchen Wahrnehmungen lassen sich nicht einseitig durch harte Technikvollzüge für neue Lösungen gewinnen.

Die Aufhebung der Ungleichzeitigkeiten verlangt die Möglichkeit zu selbstbewusstem Handeln und zu demokratischer Partizipation sowie kollegialer Selbstbestimmung. Der arbeitende Mensch muss sich selbst im Vorgang des Wandels verorten können, muss sich selbst als Subjekt der Veränderung begreifen können. Das Aufgreifen der Latenz noch-nicht-eingelöster öffentlicher Tagträume von humanen Arbeitswelten kann, wenn sie emporgehoben werden, erheblich helfen.

 

Digital alt oder digital neu?

Nicht selten kommt uns das Thema der Digitalisierung bzw. der digitalen Transformation in seinem gestrigen oder eher noch vorgestrigen Gewande entgegen. Themen wie HomeOffice, Mobiles Arbeiten oder elektronische Lernplattformen werden uns als neue digitale Revolution oder gar als „Vier-Null“-Welten erläutert. Das einfache Bedienen eines Smartphones will schon „Künstliche Intelligenz“ sein. Wir lassen uns zu leicht in bunte Marketing-Bühnen von Technik-Verkäufern locken und glauben sodann, wir seien „vorne“. Doch weit gefehlt.

Wir sind zunächst einmal Gäste im Interregio-Zauber dessen, was wir lieber einen Prozess der „Nachholenden Digitalisierung“ nennen sollten. In Betrieben, Dienstleistungszusammenhängen, Verwaltungen, Schulen und Verbänden holen wir oftmals nach, was technologisch schon fünfzehn bis zwanzig oder gar fünfundzwanzig Jahre alt ist. Lernplattformen, mobile Endgeräte, mobiles Arbeiten und Arbeiten zuhause waren Schlüsselthemen der zweiten Hälfte der neunziger Jahre.

Doch viele Akteure wollten damals davon kaum etwas wissen. Heute wird auf den Zug aufgesprungen, um die Hüte von damals als das aktuell Neue zu präsentieren. Wir sollten prüfen, was ist wirklich neu und was ist nur eine unerledigte Hausaufgabe der letzten beiden Jahrzehnte.

 

Betriebs- und Personalräte wollen den Vorrang menschlicher Entscheidungshoheit bei algorithmischen Systemen

Aus den vielfältigen Diskursen und Diskussionen im „Forum Soziale Technikgestaltung“ (FST) zum Thema „Der mitbestimmte Algorithmus“ entstanden dreißig generische Kriterien zur Vorab-Gestaltung von Algorithmen und algorithmischen Entscheidungssystemen (1). Zu den Kernpositionen gehören die eindeutige Einschränkung der personenunabhängigen Entscheidungskompetenz von Delegationssoftware und das Festhalten an gestalteter Assistenztechnik:

„Grundsätzlich hat zu gelten, dass in den Arbeits- und Berufswelten, in Betrieben, Dienstleistungszentren und Verwaltungen sowie in KMUs nur solche Software-Systeme Anwendung finden, die gestaltbar sind. Geschlossene und nicht gestaltbare Systeme verletzen die Mitbestimmung. Bei der Gestaltung und dem Einsatz ,autonomer‘ und ,selbstlernender‘ Algorithmen und algorithmischer Entscheidungssysteme gilt der Vorrang menschlicher Entscheidungshoheit und menschlicher Aufsicht. Bei der Gestaltung und dem Einsatz ,autonomer‘ und ,selbstlernender‘ Algorithmen und algorithmischer Entscheidungssysteme muss die Beherrschbarkeit der Systeme zu jedem einzelnen Zeitpunkt durch den Menschen gegeben sein.“(2)

Der Gesamtpersonalrat (GPR) der Landeshauptstadt Stuttgart hat In Zusammenarbeit mit dem „Forum Soziale Technikgestaltung“ den Entwurf einer „Lernenden Rahmen- und Zukunfts-DV zum Einsatz von Informations- und Telekommunikationstechnik bei der Landeshauptstadt Stuttgart“ vorgelegt. Darin strebt der GPR unter anderem an:

„Sollte eine Software-Anwendung nach ihrer Implementierung technisch nicht mehr gestaltbar sein oder deren Gestaltung nur mit großen technischen Aufwendungen und Kosten möglich sein, sind die Gestaltungsanforderungen des Gesamtpersonalrates vorab im Algorithmus der Software verbindlich zu verankern. Eine technisch eigenständige Aufhebung der Zweckbindung durch eine ,selbstlernende‘ Software selbst muss technisch ausgeschlossen werden.“ (3)

(1) Welf Schröter: Der mitbestimmte Algorithmus. Arbeitsweltliche Kriterien zur sozialen Gestaltung von Algorithmen und algorithmischen Entscheidungssystemen. In: Welf Schröter (Hg.): Der mitbestimmte Algorithmus. Gestaltungskompetenz für den Wandel der Arbeit. Mössingen 2019, S. 101–150.
(2) Ebd., S. 138.
(3) Markus Freitag, Claudia Häussler, Chris Purz, Welf Schröter: Chance auf einen geordneten Zukunftsprozess. In: Welf Schröter (Hg.): Der mitbestimmte Algorithmus. Gestaltungskompetenz für den Wandel der Arbeit. Mössingen 2019, S. 213–240, S. 232. (Darin enthalten ist der vollständige Wortlaut von „RZDV-ITTK-LHS Lernende Rahmen- und Zukunfts-DV zum Einsatz von Informations- und Telekommunikationstechnik bei der bei der Landeshauptstadt Stuttgart“ (Entwurf)“ Vorgelegt vom Gesamtpersonalrat der Landeshauptstadt Stuttgart 2019“.)

 

„Der mitbestimmte Algorithmus“ – Ein Buch mit Diskussionsergebnissen aus dem Forum Soziale Technikgestaltung

Im Denken einer konstruktiven Technikgestaltung liefert dieses Buch Einblicke in den Prozess der partizipativen Einführung neuer Technologien. Aus der Perspektive von Beschäftigten, Betriebs- und Personalräten sowie aus sozialwissenschaftlicher Sicht stellen die Autorinnen und Autoren eine Werkstatt-Zwischenbilanz zum Stand der Themen Plattformarbeitswelten, Algorithmen, algorithmische Entscheidungsprozesse und zum „mitbestimmten Algorithmus“ (Schröter) vor. Es geht um eine andere Annäherung an die Zukunft der Arbeit und die Arbeit der Zukunft. Dazu schlug das Netzwerk „Forum Soziale Technikgestaltung“ (FST) bereits im Jahr 2015 das Konzept eines „mitbestimmten Algorithmus“ vor. Nun geht es nicht mehr nur um den „Code“ sondern um die Demokratisierung des algorithmischen Entscheidungssystems als Ganzes.

Die bisherige Debatte über einen Aufbau von Gestaltungskompetenz für die demokratische Formierung „autonomer“ und „selbstlernender“ Software-Systeme erbrachte eine Reihe von grundsätzlichen (generischen) Kriterien für die zulässige Implementierung von neuer „Delegationstechnik“, die den Anspruch erhebt, an Stelle des Menschen rechtsverbindliche Entscheidungen in Echtzeit zu treffen. Dies überschreitet die bisherigen Vorstellungen einer „Assistenztechnik“. Die Autorinnen und Autoren des Bandes bringen Fachkenntnisse und Erfahrungen aus unterschiedlichen Arbeitswelten ein.

Die Texte zeigen Zusammenhänge zwischen Geschäftsmodellen und dem Einsatz der sogenannten „Künstlichen Intelligenz“ auf, beleuchten den Einsatz von Algorithmen in Fertigung und Verwaltung, beschreiben „Algorithmus-Kompetenzen“ und geben den Beschäftigtenvertretungen dreißig Kriterien zur Gestaltung algorithmischer Entscheidungssysteme an die Hand. Von sozialwissenschaftlicher Seite werden neue Plattformarbeitswelten wie externes und internes Crowdworking analysiert. Betriebsräte und Personalräte legen ihre Erfahrungen und Kenntnisse im Hinblick auf verrechtlichte Vereinbarungen zum Technik-Einsatz vor. Sie offenbaren die erworbene Qualität von Gestaltungskompetenz. Der vorliegende Band lädt zur Kontroverse und zu weiterer Vernetzung ein.

Klaus Kornwachs (Nicht vor der KI, vor den Geschäftsmodellen müssen wir uns fürchten), Oleg Cernavin (Algorithmus-Kompetenzen. Grundlage für reflexives und kritisches KI-Bewusstsein), Jan Etscheid, Jörn von Lucke (Anregungen für einen sozialverträglichen Einsatz von künstlicher Intelligenz im öffentlichen Sektor), Welf Schröter (Der mitbestimmte Algorithmus. Arbeitsweltliche Kriterien zur sozialen Gestaltung von Algorithmen und algorithmischen Entscheidungssystemen), Benedikt Simmert, Karen Eilers, Jan Marco Leimeister (Internet Crowd Work an der Schnittstelle sozialer und technischer Elemente der digitalen Arbeitsorganisation), Hannah Ulbrich, Marco Wedel (Forschungsprojekte als Experimentierräume für die Digitalisierung), Bernd Schneider, Bernhard Müller-Klinke, Katharina Parth (Digitalisierung in der Arbeitswelt. Neue Handlungsfelder für Belegschaftsvertreter), Andreas Otte, Welf Schröter in Zusammenarbeit mit Ingo Breite, Frank Gerth, Sylvia Laur, Volker Ost, Can Sekertekin, Andreas Tabor (Lebende Konzernbetriebsvereinbarung als soziale Innovation. Internes Crowdsourcing in der GASAG-Gruppe. Bedeutung – Bewertung – Vollständiger Wortlaut der KBV), Markus Freitag, Claudia Häussler, Chris Purz, Welf Schröter (Chance auf einen geordneten Zukunftsprozess. Gesamtpersonalrat (GPR) überreicht OB Kuhn den Entwurf einer „Lernenden Rahmen- und Zukunfts-Dienstvereinbarung IT und TK“ – Vollständiger Wortlaut des DV-Entwurfes).

Angaben zum Buch: Welf Schröter (Hg.): Der mitbestimmte Algorithmus. Gestaltungskompetenz für den Wandel der Arbeit. Mössingen 2019, 
ISBN 978-3-89376-181-4.

 

Licht und Schatten im sogenannten „KI-Diskurs“

Als vor nahezu 35 Jahren an vielen Universitäten das Fach Informatik eingerichtet wurde, gab es aus heutiger Sicht geradezu merkwürdige Diskussionen. Der Weg der Fakultätsgründungen spülte nicht selten einen besonderen Typ des männlichen Forscherdrangs auf die Lehrstühle. Dieser Typus verbat sich die Einmischung von Seiten der Sozialwissenschaften und wehrte sich gegen Anfragen aus der Zivilgesellschaft. Diese Einmischungen würden zum einen die Freiheit der Wissenschaft beeinträchtigen. Zum anderen seien sie in sich unlogisch, da die Informatik nur Grundlagenforschung betreibe und keinen direkten Anwendungsbezug zur Gesellschaft habe. Mit dieser Abwehrhaltung wollte sich die (damalige) konstruktive Kritik an der (damaligen) Informatik nicht zufrieden geben. Nach kurzer Zeit entfalteten sich an mehreren Hochschulen Forschungszusammenhänge und Institute unter dem Namen „Informatik und Gesellschaft“.

Auch der heutige Verlauf des Diskurses um die sogenannte „Künstliche Intelligenz“ bringt vergleichbare Momente von Licht und Schatten hervor. Es ist ermutigend festzustellen, dass in den Forschungen und Entwicklungen modernster Softwaresysteme zumeist offene Gesprächsverhältnisse vorherrschen und eine große Bereitschaft vorzufinden ist, mit zivilgesellschaftlichen Gruppen in den Dialog zu treten. Dennoch scheinen auch bestimmte Haltungen des Sich-Abgrenzens und des Denkens-in-Elfenbeintürmen zurückzukehren. Wenden wir uns jüngsten Beispielen zu:

Immer mehr schiebt sich in der aktuellen Debatte über die Gestaltung algorithmischer Entscheidungssysteme die Frage in den Vordergrund, ob es besondere Zulassungskriterien für die Nutzung und Anwendungen solcher Algorithmen und deren algorithmischer Entscheidungszusammenhänge geben sollte. Aus dem Forum Soziale Technikgestaltung heraus kommt der Vorschlag nach einem „mitbestimmten Algorithmus“. Dazu haben die Diskussionen mit Kolleginnen und Kollegen dreißig Kriterien für Zulassungen ergeben. Beim Versuch, diese Kriterien, diese Vorschläge aus dem Kreis der Zivilgesellschaft der „KI“-Forschungsgemeinde vorzustellen, kam uns das Argument entgegen, dass die Forschung dieser „KI“-Gemeinde lediglich Grundlagenforschung betreibe und diese Forschung keinen direkten gesellschaftlichen Anwendungsbezug ausweise. Das Forum solle lieber mit der Anwendungsforschung reden.

Über eine solche Aussage kann man nur den Kopf schütteln. Davon abgesehen, dass der Übergang zwischen Grundlagenforschung und Anwendung im Feld moderner Softwareforschung geradezu fließend ist, und dass gesellschaftliche Anforderungen zum frühest möglichen Zeitpunkt in der Arbeit der Forschung Berücksichtigung finden sollten, schadet eine solche Argumentation vor allem dem Anliegen der „KI“-Community selbst. Sie unterminiert die eigene Glaubwürdigkeit. Wer die letzten rund vierzig Jahre Forschung in der Technikfolgenabschätzung und in der Technikfolgenforschung betrachtet, stellt zudem unumwunden fest, dass der Abgrenzungsschritt („Grundlagenforschung“) auch einer modernen Methodendiskussion nicht standhält.

Mit einem weiteren Kopfschütteln muss man einen anderen Vorgang betrachten. Da hat sich ein kompetenter Kopf der verdienstvollen Aufgabe zugewandt, die nationale und internationale Diskussion zu durchforsten, um zu prüfen, welche Anforderungen akademische Autorinnen und Autoren an die Entwicklung neuer sogenannter „KI-Anwendungen“ formulieren. Erfreulich war im Ergebnis, dass die Anforderung nach Schutz der Privatheit den Spitzenplatz einnahm. Es folgten weitere – auch aus gewerkschaftlicher Sicht – gute Kriterien. Auf die Frage aber, warum nicht auch die vielfältigen Anforderungen aus der Zivilgesellschaft in diese wertende Übersicht aufgenommen wurden, kam die geradezu frappierende Antwort, dass er mit seinem Aufsatz im Wettbewerb mit internationalen Wissenschaftlern stehe und da passe der zivilgesellschaftliche Ansatz nicht hinein.

Zugegeben, die beschriebenen Beispiele zum Kopfschütteln sind Einzelfälle. Viele Akteure aus der Forschung würden über besagtes Verhalten selbst den Kopf schütteln. Dennoch ist es für die zivilgesellschaftliche Seite das Gegenteil von Ermutigung.

 

Wunderliches aus dem „KI“-Wunderland

Ist es ein vorübergehendes kulturelles Phänomen oder ein neuer aktiv begünstigter Trend? Immer häufiger findet sich in Veranstaltungen ein ähnlicher Typus von Personen zur Diskussion eines gemeinsamen Themas zusammen: Es sind Männer, ältere Männer über siebzig, zumeist ehemalige Ingenieure und Informatiker, die heute im aktiven Unruhestand sind. Sie unterstreichen die zunehmende Bedeutung der „künstlichen Intelligenz“ und beschwören die Macht und Potenziale der Technik. Drohszenarien und Hoffnungsträume gleichen Inhalts machen die Runde. Strittig ist im Wesentlichen der Zeitfaktor: Wird die „KI-Superintelligenz“ die Macht über die Menschheit in dreißig, siebzig oder neunzig Jahren übernehmen? Das Ergebnis sei jetzt schon klar. Die „Superintelligenz“, die sogenannte „starke KI“ käme und sei nicht mehr aufzuhalten. Gepaart wird der technikzentrierte Monolog mit dem Hinweis auf die notwendige „evolutionäre“, biologische Veränderung des Menschen. Das neue Menschenbild sieht die Technik nicht als hilfreiche Assistenz für den Menschen, sondern den Menschen als körperliche Übergangsstation zum dauerhaften digital-virtuellen Weiterleben eines Ichs.

Mag sein, dass manche Leserin, mancher Leser, diese Beschreibungen als esoterischen Wunderglauben oder als Überreste später Männerträumereien ansieht. Leider meinen es diese genannten Personen ernst. Sie wollen die Öffentlichkeit zugunsten ihres Zukunftsdiskurses missionieren und – zumindest ein Teil von ihnen – aktiv bejahend dafür werben. Hält man dieser Gruppe vor, sie würden damit transhumanistisches Gedankengut transportieren und rechtliche Grundprinzipien in Frage stellen, reagieren sie gelassen. Sie seien keine Ideologen und im Übrigen würde die Erbschaft unserer bisherigen ethischen Spielregeln durch den praktischen Utilitarismus (die sich einschleichende Form praktischen Nützlichkeitshandelns, auch wenn man wisse, dass man jenseits rechtlicher Regeln sei) de facto verändert und nivelliert. Sie fordern Freiheit, Freiheit für die Wissenschaft, Freiheit für die Technik, Freiheit für den Roboter, Freiheit für den Wandel.

Solange diese Männerrunden nur beim Bier Träume austauschen, könnte man zurückhaltend und gelassen bleiben. Es ändert sich allerdings abrupt, wenn solche Männerrunden sich prominente Redner als Gäste einladen, die die rechtsstaatlichen Spielregeln als neuen Gegner ausgeben. Einer dieser Prominenten gab von sich, dass er den zentralen Gegner der „Künstlichen Intelligenz“ gefunden habe. Es sei die EU-Datenschutzgrundverordnung!

Diese Aussage erfolgte einige Wochen nachdem die Datenschutzbeauftragten der Republik in ihrer „Hambacher Erklärung“ im Mai 2019 die zentrale Bedeutung der EU-DSGVO für die rechtsstaatliche Bändigung von „KI“-Anwendungen unterstrichen. Dort heißt es unter anderem:

Systeme der Künstlichen Intelligenz (KI) stellen eine substanzielle Herausforderung für Freiheit und Demokratie in unserer Rechtsordnung dar. Entwicklungen und Anwendungen von KI müssen in demokratisch-rechtsstaatlicher Weise den Grundrechten entsprechen. Nicht alles, was technisch möglich und ökonomisch erwünscht ist, darf in der Realität umgesetzt werden. Das gilt in besonderem Maße für den Einsatz von selbstlernenden Systemen, die massenhaft Daten verarbeiten und durch automatisierte Einzelentscheidungen in Rechte und Freiheiten Betroffener eingreifen. Die Wahrung der Grundrechte ist Aufgabe aller staatlichen Instanzen. Wesentliche Rahmenbedingungen für den Einsatz von KI sind vom Gesetzgeber vorzugeben und durch die Aufsichtsbehörden zu vollziehen. Nur wenn der Grundrechtsschutz und der Datenschutz mit dem Prozess der Digitalisierung Schritt halten, ist eine Zukunft möglich, in der am Ende Menschen und nicht Maschinen über Menschen entscheiden. […]“

 

Der künstliche Mensch? Menschenbilder im 21. Jahrhundert

Unter diesem Titel haben sich Aktive aus dem Forum Soziale Technikgestaltung und aus dem Kreis der Partner zusammengefunden, um im Angesicht der sogenannten „Künstlichen Intelligenz“ Beiträge aus der Perspektive der Gewerkschaften, der Sozialwissenschaften, der Philosophie, der Religionskritik und der Jurisprudenz über den Mensch zu verfassen. Nicht die Technikanalyse steht im Vordergrund sondern die Frage nach der Rolle des Menschen und dem Menschenbild. Die Beiträge wurden zusammengeführt und als 125seitiger Schwerpunkt in dem mehr als 260 Seiten umfassenden Journal „Latenz“ im Oktober 2019 (Latenz 04/2019) veröffentlicht.

Ist die Frage nach einem ethischen Menschenbild ein überholter Romantizismus oder eine soziale Notwendigkeit der Aufklärung für den Zusammenhalt von Gesellschaften? Was sind die zukunftsweisenden Erbschaften einer Jahrhunderte übergreifenden Diskussion um das Bild des Menschen? Worauf basiert ein solidarisches Menschenbild? Welches Menschenbild transportieren die Bürger- und Menschenrechte? Wie lässt sich vermeiden, dass einseitig gesetzte und in Technik implementierte Profile von digitalen Figuren den demokratischen Regeln und Rechten der Vielfalt, der Integration und Inklusion zuwiderlaufen? Welche Konsequenzen haben die aktuellen technischen wie gesellschaftlichen Transformationsprozesse für eine philosophische Anthropologie?

Mit seinem Beitrag „Menschenbilder, Visionen, Normen: Orientierungen für ‚Gute Arbeit mit KI‘“ greift der Ver.di-Gewerkschafter Lothar Schröder in die Kontroverse um die „Künstliche Intelligenz“ ein. Aus arbeitsweltlicher Perspektive ermutigt er zur Weiterentwicklung der Humanisierung der Arbeit durch die Selbstbestimmung des Menschen: „Den Menschen als digitale Maschine zu deuten und ihn entsprechend programmierten, ‚lernenden‘ Systemen auszusetzen oder gar unterzuordnen, muss zwangsläufig zu inhumanen und inakzeptablen Resultaten führen.“

Für das „Recht auf Irrationalität“ angesichts der „zunehmenden Unbewohnbarkeit von Fiktionen“ spricht sich der Soziologe Stefan Selke aus. In Hinblick auf Big Data und die Verschiebung des Humanum durch erweiterte Digitalisierungen plädiert der Autor für die „selbstbestimmte Erzählbarkeit.“ Der Tübinger Philosoph Helmut Fahrenbach geht der anthropologischen Frage im Denken von Ernst Bloch nach. Unter dem Titel „Das Leben künstlich oder menschlich machen?“ übt Annette Schlemm philosophische Kritik an den Denkgebäuden des Transhumanismus. Sie verteidigt die zivilgesellschaftliche Vielfalt gegen technikgläubigen Reduktionismus. In brillanter Schärfe zeigt uns der Jurist Ingo Müller die Relevanz der Grundrechte auf und, „dass im Zentrum unserer Werteordnung die Grundrechte stehen, nicht Staat oder Kirche, sondern der Mensch“.

In einem Interview von Johanna Di Blasi kommt der Filmemacher Alexander Kluge zu Wort. Mit seiner Formel von der „Achtung vor Robotern“ setzt er sich mit der „sozialen Intelligenz der Maschinen und Goethes Homunculus, der klüger ist als der Mensch“ auseinander. Aus der Schweiz meldet sich Kurt Seifert mit einem philosophisch-politischen Text zu Wort: „Was fehlt? Transhumanismus als Anti-Utopie“. Mit der Widersprüchlichkeit und der historischen Belastetheit des Terminus „Der neue Mensch“ verknüpft der Autor frühe Diskussionen im Russland der zwanziger Jahre mit späteren autoritären Terrorformen Stalins und Mao Tse Tungs. Gegen eine einseitige Aufhübschung der Debatte um die sogenannten „Künstliche Intelligenz“ nimmt Welf Schröter in seiner pointierten nachdenklichen Polemik „Warum der Begriff ‚KI‘ nicht als ‚künstliche‘ sondern nur als ‚kleine‘ oder ‚keine Intelligenz‘ ausgeschrieben werden sollte“ aus gestaltungsspezifischer Sicht Stellung. Anknüpfend hat sich der Sozialwissenschaftler György Széll auf den Weg gemacht, eine umfangreiche, wertende Sammelrezension zu „KI“-Publikationen zu erstellen. Unter dem Titel „Homo sapiens demens“ bewegt er sich durch die Literatur.

Buchangaben: Latenz – Journal für Philosophie und Gesellschaft, Arbeit und Technik, Kunst und Kultur. Ausgabe 04|2019. Der Künstliche Mensch? Menschenbilder im 21. Jahrhundert. Hrsg. von Irene Scherer und Welf Schröter. Redaktion: Matthias Mayer, Mathias Richter, Inka Thunecke, Irene Scherer und Welf Schröter. 2019, 264 Seiten, 34,00 Euro, ISBN 978-3-89376-185-2.

 

Das herausfordernde FST-Planspiel „BABSSY“

Das Netzwerk „Forum Soziale Technikgestaltung“ (FST) lädt zur Nutzung des von ihm entwickelten neuen Planspiels „BABSSY“ ein. Die Abkürzung steht für „BetriebsratsArbeit auf Basis ,Autonomer Software-SYsteme‘“. Unter dem Planspiel ist ein eintägiger Bildungsbaustein mit rund sieben Stunden Länge im Rahmen eines Weiterbildungsseminars für Betriebsrätinnen und Betriebsräten zu verstehen.

„BABSSY“ will die Gestaltungskompetenz der Betriebsratsgremien stärken. In einem Szenario sollen Kolleginnen und Kollegen die sich verändernden Arbeits- und Wirtschaftsabläufe erkennen und eigene Handlungsschritte simulieren lernen. Was bedeutet der Einsatz bestimmter neuer Software-Systeme für die Wertschöpfung im Betrieb und die Wertschöpfungskette zwischen den wirtschaftlichen Akteuren?

Im Zentrum des Lernprozesses steht der Erwerb des Verständnisses und der Gestaltungsmöglichkeiten von sogenannten „selbstlernenden“, „selbstdenkenden“ bzw. „autonomen“ Software-Systemen. Natürlich „lernen“ und „denken“ diese Software-Systeme nicht wirklich. Sie stellen vielmehr außerordentlich hochspezialisierte und zum Teil sehr leistungsfähige mathematisierte Software-Werkzeuge dar. Das Planspiel will in mehreren, über den Tag verteilten Schritten, die Beteiligten mit den Herausforderungen vertraut machen. Das Ziel ist die Vermittlung von Orientierungswissen an Betriebs- und Personalräte, Vertrauensleute und Beschäftigte über Möglichkeiten der sozialen Gestaltung dieses Typs von Software im Rahmen der „digitalen Transformation“. Die Vermittlungsbausteine fußen vor allem auf der Analyse der „nachholenden Digitalisierung“ und der Bedeutung „Autonomer Software-Systeme“ (ASS).

Grundlage der Überlegungen aus dem „Forum Soziale Technikgestaltung“ ist dabei ein Perspektivwechsel: Die „autonomen Software-Systeme“ (ASS) stellen nicht nur Objekte der Mitbestimmung und der Gestaltung dar. Die Diskussionen im FST eröffnen zugleich den Blick auf neue Möglichkeiten des Handelns von Betriebs- und Personalräten. Im Zusammenhang mit dem FST-Planspiel entfaltet sich das Szenario einer möglichen Nutzung der ASS zu einer optimierten Betriebsarbeit und als Werkzeuge der Mitbestimmung durch die Beschäftigtenvertretungen selbst. Das Planspiel hilft beim Verständnis der „vorausschauenden Arbeitsgestaltung“ und bei der Annäherung an den „mitbestimmten Algorithmus“ (Schröter).

In einer Reihe außergewöhnlicher Zukunftsworkshops anlässlich des 25-jährigen Bestehens des „Forum Soziale Technikgestaltung“ arbeiteten sich die Kolleginnen und Kollegen aus Betriebs- und Personalräten über zwei Jahre hinweg buchstäblich in die Zukunft: „Wir sollten die neuen technischen Potenziale nicht nur als Teil der Arbeitswelt gestalten, wir sollten sie auch selbst im Betriebsrat anwenden. Mitbestimmung mit Hilfe von ASS-Echtzeit-Bedingungen.“

Im Idealfall nehmen 20 oder 25 Personen an „BABSSY“ teil. Das didaktisch angelegte und vom FST moderierte Planspiel mit einem vorgegebenen Basisszenario für einen simulierten betriebsübergreifenden Mitbestimmungsprozess und verschiedenen Rollen kommt völlig ohne Techniknutzung aus. Tisch, Stuhl, Papier, Bleistift und ein neugieriger Blick wollen Echtzeit in Zeitlupe zerlegen, um Nachvollziehbarkeit, Transparenz und Interventionsmöglichkeiten gedanklich vorausschauend erlebbar zu machen. Der „Klick“ muss im Kopf passieren, bevor er technisch simuliert wird.

Die Durchführung und Moderation des Workshops erfolgt über das Forum Soziale Technikgestaltung. Für das ganztätige Seminar fallen n. V. Honorar- und Reisekosten und ggf. Übernachtungskosten an. Kontakt zu BABSSY: schroeter@talheimer.de