HomeOffice-Tipp 5: Wenn das HomeOffice unter die Kontrolle sogenannter „intelligenter“ Software gerät

Derzeit ist in Zeitungen häufig zu lesen, dass das HomeOffice etwas mit „Künstlicher Intelligenz“ zu tun habe. Dies ist nicht der Fall. „Alternierende Telearbeit“ oder „Mobiles Arbeiten“ sind Organisationsformen von Arbeit. Es sind aber keine Technologien. Dennoch kann es sein, dass ein „Homeworker“ im Rahmen eines Arbeitsablaufes plötzlich im Netz mit einer Software in Berührung kommt, die nicht zum HomeOffice gehört, aber möglicherweise in das HomeOffice von außen eingreifen will. Dies kann eine im Netz frei flottierende Schadenssoftware (Malware) sein, die im heimischen Rechner schädliche Viren hinterlassen will, um den heimischen Rechner von außen zu „kapern“ und fernzusteuern. Dies gehört alles zum großen Kapitel „Security“, also technische Datensicherheit. Zweifellos sollte man, bevor man seinen HomeOffice-Rechner in Gang setzt, Antivirensoftware und Daten-Backup-Möglichkeiten vorbereitet haben.

Ein völlig anderer Vorgang ist es aber, wenn ein Arbeitgeber unzulässiger Weise sogenannte „intelligente“ Software einsetzt, um die Leistungen und das Leistungsprofil der Homeworker zu überwachen, um heimliche Rankings der MitarbeiterInnen gegeneinander zu praktizieren etc. Solche Vorgehensweisen sind in der Regel rechtswidrig und sollten umgehend dem Betriebsrat bzw. dem Personalrat gemeldet werden.

Aus der Perspektive der Technikentwicklung ist zu erkennen, dass sich HomeOffices auch flexibel und für gewisse Zeiten zu wechselnden Call-Center-Einrichtungen zusammenschalten lassen. Wenn beispielsweise eine Firma pro Tag enorm viele Anrufe erhält, die weit über die Belastbarkeit des Telefonservice hinausgeht, könnte eine Software die eingehenden Anrufe so umverteilen, dass in Spitzenzeiten bedarfsorientiert neue Telefonplätze hinzugenommen werden. Die anrufende Person erkennt dabei nicht, dass sie in einem HomeOffice gelandet ist. Sie denkt, sie sei in der Firma, da sie ja die Firmennummer gewählt habe. Zur Steuerung eines solchen virtuellen „atmenden“ Call Centers könnte Software genutzt werden, die Laien womöglich als „Künstliche Intelligenz“ bezeichnen. Es ist aber nur eine gut gemachte mathematische Techniklösung. Mit „Intelligenz“ hat dies nichts zu tun. Mit dem Vorhaben eines solchen „atmenden“ Call Centers muss vor dessen Einführung bzw. Aktivierung die Beschäftigtenvertretung befasst worden sein. Hier greift die Mitbestimmung.

Am Horizont ist zu erkennen, dass für die Organisation der Arbeitsabläufe und für die Steuerung der Arbeitsprozesse auch neue Typen von Software in Nutzung kommen werden. Diese neue Software ist eine besonders mathematisch qualifizierte Art, die von ihren EntwicklerInnen fälschlicherweise als „denkend“ oder „lernend“ bezeichnet werden. Diese Software ist aber nur Mathematik. Ihre Besonderheit liegt darin, dass sie Datenverarbeitung mit Entscheidungsprozessen kombiniert. Sie kann anstelle des Menschen rechtsverbindliche Entscheidungen treffen. Das Forum Soziale Technikgestaltung hat als Unterstützung für Betriebs- und Personalräte das Projekt „Der mitbestimmte Algorithmus“ gestartet. Mit klaren Zulassungskriterien soll erreicht werden, dass solche Systeme zwar in vereinbarter Form Entscheidungen über Sachen (Material, Energie etc.) nicht aber über Menschen treffen können. Das FSt will die Demokratisierung solcher „algorithmischer Entscheidungssysteme“.

Lesetipp: Welf Schröter: Der mitbestimmte Algorithmus. Arbeitsweltliche Kriterien zur sozialen Gestaltung von Algorithmen und algorithmischen Entscheidungssystemen. In: Welf Schröter (Hg.): Der mitbestimmte Algorithmus. Gestaltungskompetenz für den Wandel der Arbeit. Oktober 2019, S. 101–150. ISBN 978-3-89376-181-4.

 

Das „neue Normale“ als Instrument des Rückwärtsganges

Wer Technik gestalten will, denkt vor allem in Möglichkeiten, in neuen werdenden Möglichkeiten. Technische Produkte, Werkzeuge, Plattformen sind keine unumstößlichen Gegebenheiten, die man hinnehmen muss. Technik ist von Menschen geschaffen und kann von Menschen verändert werden. Technikgestaltung folgt der Vorstellung, dass die in der Technik und hinter der Technik stehenden Interessen offen angesprochen und transparent gemacht werden. Es gibt keine „neutrale“ Technik.

Technische Lösungen sind immer Ausdruck des Wertezusammenhangs und der Interessen jener Menschen, die solche technischen Lösungen hervorbringen oder dafür bezahlt werden. Soziale Technikgestaltung hingegen will die Interessenbündel in der Technikentwicklung demokratisieren und bislang nicht berücksichtigte Interessengruppen in den Gestaltungsprozess hineinnehmen.

Als in den neunziger Jahren junge, zumeist männliche, gesunde, seh- und hörfähige Entwickler ihre Produkte präsentierten, konnte man sich schnell darüber einig werden, dass das Entwicklerteam die Lebenslage von Seh- und Hörgeschädigten komplett vergessen hatte. Als Folge pluralisierte sich die Software-Szene. Von nun galt es eher als schick, neue WebSites zu kreieren, die barrierefrei sind. Dies ist ein einfaches Beispiel von Technikgestaltung, bei der „vergessene“ Interessen endlich eingebunden wurden.

Gute Technikgestaltung lebt von der Offenheit für Neues, von der Fähigkeit, andere Nutzungsinteressen zu berücksichtigen, von der Ermöglichung des noch nicht Geschaffenen. So entstehen auch soziale Innovationen, die gesellschaftlich inklusiv wirken. Was aber bedeutet es für die Potenziale innovativer Technikgestaltung, wenn die Perspektive der Möglichkeit weggedrückt und durch die „stumme Macht des Faktischen“ ersetzt wird? Wenn statt neuen Wegen nur noch das Unabänderliche zu gelten scheint?

Wenn Betriebsrätinnen und Betriebsräte darüber nachdenken, wie die Nutzung von Algorithmen und algorithmischen Entscheidungssystemen nach sozialen Schutzstandards und gesellschaftlichen Interessen offen gelegt und gestaltet werden können, suchen sie nach neuen Möglichkeiten. Das Projekt „Der mitbestimmte Algorithmus“ des Forum Soziale Technikgestaltung will dafür Lösungen beibringen. Einem solchen Suchen nach neuen Wegen wird allzugern entgegengehalten, „dass das nicht gehe“. Technik sei nun mal Technik und sie folge eigenen Gesetzen. Doch wenn man diesen „eigenen Gesetzen“ eine genauere Aufmerksamkeit schenkt, wird schnell offensichtlich, dass nur schlichte Ablehnung der Gestaltungs- und Änderungsansätze gemeint ist. Man solle sich mit dem Vorhandenen zufrieden geben. Die Ideen der anderen Möglichkeiten seien doch nur abwegig.

Für eine solche bremsende Kommunikationsstrategie der Ablehnung gibt es ein vermeintlich „neues“ und vermeintlich „modisches“ Schlagwort, das entmutigen soll und die Enttäuschung zum Tagesinhalt umwerten will. Die Unmöglichkeit der Veränderung, die Unveränderbarkeit heißt nun „das neue Normale“. In den Worten eines einflussreichen Wirtschaftsakteurs klingt die Umwertung noch klarer: „Die coronabedingte Zwangs-Digitalisierung hat viele Unternehmen zum Umdenken gezwungen. Was vor einigen Wochen noch undenkbar erschien, ist nun zu einer ,neuen Normalität‘ geworden.“ Die Wortschöpfung der „Zwangs-Digitalisierung“ zeigt eine fatale Richtung auf. An anderer Stelle wird mit der Parole „Managing The New Normal“ ein Neustart empfohlen. Der „Neustart“ klingt dabei mehr nach einem Rückstart in die Vergangenheit. Woanders vertritt man in ähnlicher Weise die Meinung, die „neue Normalität ist digital.“ Schon fordern die Anhänger der „neuen Normalität“ ein neues „Mindset“. Dies klingt nicht nach der Wahrnehmung neuer Möglichkeiten, sondern eher nach der Stabilisierung eines alten Denkens.

Erforderlich ist das Gegenteil: Die Fähigkeit, neue kreative Möglichkeiten der seit dreißig Jahren andauernden digitalen Transformation auszuloten, sie zu prüfen und partizipativ-demokratisch gestalterisch umzusetzen. Das neue „Noch-Nicht“ sollte das Normale werden.

 

Black Lives Matter – Nur gestaltete Algorithmen können Diskriminierung verhindern helfen

Seit mehreren Jahren wird im gewerkschaftsnahen Forum Soziale Technikgestaltung (FST) über die Möglichkeiten diskutiert, wie neuere Formen von selbstentscheidender und sich-selbst-verändernder Software an rechtliche Vorgaben und soziale Standards angepasst werden können. Für die soziale Gestaltung von Algorithmen und algorithmischen Entscheidungssystemen hat das FST dreißig grundsätzliche (generische) Kriterien entwickelt und zur Diskussion gestellt. Auf diese Weise sollen Software-Systeme, die durch ständige neue Datenaufnahmen veränderte Entscheidungen treffen können, demokratisch und human ausgerichtet werden.

Diese Gestaltungsprozesse müssen einerseits durch neue Wege der betrieblichen Mitbestimmung durchgesetzt werden. Andererseits benötigt unsere politische Zivilgesellschaft verbindliche rechtliche Spielregeln, wie verankert und institutionell abgesichert werden kann, dass technische Systeme nicht die Oberhand über den Menschen, über die Bürgerin, über den Bürger gewinnen. Eine demokratische Gesellschaft muss gewährleisten, dass technische Innovationen als Assistenzsysteme wirken, aber nicht als Delegationssysteme anstelle des Menschen entscheiden. Der Mensch muss das Interventionsrecht besitzen. Entscheidungen über Menschen sind von Menschen zu treffen nicht von vermeintlich „selbstlernenden“ Software-Systemen.

Der Einsatz solcher algorithmischer Entscheidungssysteme in den Gesundheitswesen in den USA hat sehr deutlich gezeigt, dass nicht-gestaltete und gesellschaftlich nicht-kontrollierte Algorithmen vorhandene Vorurteile, Ausgrenzungen und Rassismen verstärken. Mangelhafte Aushandlungsprozesse zwischen Entwickelnden und Nutzenden (Spezifizierungen) befördern verdeckte oder offene Diskriminierung anstatt sie zu beseitigen. Auch für die gesellschaftliche Implementierung der Algorithmen und der algorithmischen Entscheidungssysteme gilt: Black lives matter.

 

Betriebs- und Personalräte wollen den Vorrang menschlicher Entscheidungshoheit bei algorithmischen Systemen

Aus den vielfältigen Diskursen und Diskussionen im „Forum Soziale Technikgestaltung“ (FST) zum Thema „Der mitbestimmte Algorithmus“ entstanden dreißig generische Kriterien zur Vorab-Gestaltung von Algorithmen und algorithmischen Entscheidungssystemen (1). Zu den Kernpositionen gehören die eindeutige Einschränkung der personenunabhängigen Entscheidungskompetenz von Delegationssoftware und das Festhalten an gestalteter Assistenztechnik:

„Grundsätzlich hat zu gelten, dass in den Arbeits- und Berufswelten, in Betrieben, Dienstleistungszentren und Verwaltungen sowie in KMUs nur solche Software-Systeme Anwendung finden, die gestaltbar sind. Geschlossene und nicht gestaltbare Systeme verletzen die Mitbestimmung. Bei der Gestaltung und dem Einsatz ,autonomer‘ und ,selbstlernender‘ Algorithmen und algorithmischer Entscheidungssysteme gilt der Vorrang menschlicher Entscheidungshoheit und menschlicher Aufsicht. Bei der Gestaltung und dem Einsatz ,autonomer‘ und ,selbstlernender‘ Algorithmen und algorithmischer Entscheidungssysteme muss die Beherrschbarkeit der Systeme zu jedem einzelnen Zeitpunkt durch den Menschen gegeben sein.“(2)

Der Gesamtpersonalrat (GPR) der Landeshauptstadt Stuttgart hat In Zusammenarbeit mit dem „Forum Soziale Technikgestaltung“ den Entwurf einer „Lernenden Rahmen- und Zukunfts-DV zum Einsatz von Informations- und Telekommunikationstechnik bei der Landeshauptstadt Stuttgart“ vorgelegt. Darin strebt der GPR unter anderem an:

„Sollte eine Software-Anwendung nach ihrer Implementierung technisch nicht mehr gestaltbar sein oder deren Gestaltung nur mit großen technischen Aufwendungen und Kosten möglich sein, sind die Gestaltungsanforderungen des Gesamtpersonalrates vorab im Algorithmus der Software verbindlich zu verankern. Eine technisch eigenständige Aufhebung der Zweckbindung durch eine ,selbstlernende‘ Software selbst muss technisch ausgeschlossen werden.“ (3)

(1) Welf Schröter: Der mitbestimmte Algorithmus. Arbeitsweltliche Kriterien zur sozialen Gestaltung von Algorithmen und algorithmischen Entscheidungssystemen. In: Welf Schröter (Hg.): Der mitbestimmte Algorithmus. Gestaltungskompetenz für den Wandel der Arbeit. Mössingen 2019, S. 101–150.
(2) Ebd., S. 138.
(3) Markus Freitag, Claudia Häussler, Chris Purz, Welf Schröter: Chance auf einen geordneten Zukunftsprozess. In: Welf Schröter (Hg.): Der mitbestimmte Algorithmus. Gestaltungskompetenz für den Wandel der Arbeit. Mössingen 2019, S. 213–240, S. 232. (Darin enthalten ist der vollständige Wortlaut von „RZDV-ITTK-LHS Lernende Rahmen- und Zukunfts-DV zum Einsatz von Informations- und Telekommunikationstechnik bei der bei der Landeshauptstadt Stuttgart“ (Entwurf)“ Vorgelegt vom Gesamtpersonalrat der Landeshauptstadt Stuttgart 2019“.)

 

„Der mitbestimmte Algorithmus“ – Ein Buch mit Diskussionsergebnissen aus dem Forum Soziale Technikgestaltung

Im Denken einer konstruktiven Technikgestaltung liefert dieses Buch Einblicke in den Prozess der partizipativen Einführung neuer Technologien. Aus der Perspektive von Beschäftigten, Betriebs- und Personalräten sowie aus sozialwissenschaftlicher Sicht stellen die Autorinnen und Autoren eine Werkstatt-Zwischenbilanz zum Stand der Themen Plattformarbeitswelten, Algorithmen, algorithmische Entscheidungsprozesse und zum „mitbestimmten Algorithmus“ (Schröter) vor. Es geht um eine andere Annäherung an die Zukunft der Arbeit und die Arbeit der Zukunft. Dazu schlug das Netzwerk „Forum Soziale Technikgestaltung“ (FST) bereits im Jahr 2015 das Konzept eines „mitbestimmten Algorithmus“ vor. Nun geht es nicht mehr nur um den „Code“ sondern um die Demokratisierung des algorithmischen Entscheidungssystems als Ganzes.

Die bisherige Debatte über einen Aufbau von Gestaltungskompetenz für die demokratische Formierung „autonomer“ und „selbstlernender“ Software-Systeme erbrachte eine Reihe von grundsätzlichen (generischen) Kriterien für die zulässige Implementierung von neuer „Delegationstechnik“, die den Anspruch erhebt, an Stelle des Menschen rechtsverbindliche Entscheidungen in Echtzeit zu treffen. Dies überschreitet die bisherigen Vorstellungen einer „Assistenztechnik“. Die Autorinnen und Autoren des Bandes bringen Fachkenntnisse und Erfahrungen aus unterschiedlichen Arbeitswelten ein.

Die Texte zeigen Zusammenhänge zwischen Geschäftsmodellen und dem Einsatz der sogenannten „Künstlichen Intelligenz“ auf, beleuchten den Einsatz von Algorithmen in Fertigung und Verwaltung, beschreiben „Algorithmus-Kompetenzen“ und geben den Beschäftigtenvertretungen dreißig Kriterien zur Gestaltung algorithmischer Entscheidungssysteme an die Hand. Von sozialwissenschaftlicher Seite werden neue Plattformarbeitswelten wie externes und internes Crowdworking analysiert. Betriebsräte und Personalräte legen ihre Erfahrungen und Kenntnisse im Hinblick auf verrechtlichte Vereinbarungen zum Technik-Einsatz vor. Sie offenbaren die erworbene Qualität von Gestaltungskompetenz. Der vorliegende Band lädt zur Kontroverse und zu weiterer Vernetzung ein.

Klaus Kornwachs (Nicht vor der KI, vor den Geschäftsmodellen müssen wir uns fürchten), Oleg Cernavin (Algorithmus-Kompetenzen. Grundlage für reflexives und kritisches KI-Bewusstsein), Jan Etscheid, Jörn von Lucke (Anregungen für einen sozialverträglichen Einsatz von künstlicher Intelligenz im öffentlichen Sektor), Welf Schröter (Der mitbestimmte Algorithmus. Arbeitsweltliche Kriterien zur sozialen Gestaltung von Algorithmen und algorithmischen Entscheidungssystemen), Benedikt Simmert, Karen Eilers, Jan Marco Leimeister (Internet Crowd Work an der Schnittstelle sozialer und technischer Elemente der digitalen Arbeitsorganisation), Hannah Ulbrich, Marco Wedel (Forschungsprojekte als Experimentierräume für die Digitalisierung), Bernd Schneider, Bernhard Müller-Klinke, Katharina Parth (Digitalisierung in der Arbeitswelt. Neue Handlungsfelder für Belegschaftsvertreter), Andreas Otte, Welf Schröter in Zusammenarbeit mit Ingo Breite, Frank Gerth, Sylvia Laur, Volker Ost, Can Sekertekin, Andreas Tabor (Lebende Konzernbetriebsvereinbarung als soziale Innovation. Internes Crowdsourcing in der GASAG-Gruppe. Bedeutung – Bewertung – Vollständiger Wortlaut der KBV), Markus Freitag, Claudia Häussler, Chris Purz, Welf Schröter (Chance auf einen geordneten Zukunftsprozess. Gesamtpersonalrat (GPR) überreicht OB Kuhn den Entwurf einer „Lernenden Rahmen- und Zukunfts-Dienstvereinbarung IT und TK“ – Vollständiger Wortlaut des DV-Entwurfes).

Angaben zum Buch: Welf Schröter (Hg.): Der mitbestimmte Algorithmus. Gestaltungskompetenz für den Wandel der Arbeit. Mössingen 2019, 
ISBN 978-3-89376-181-4.

 

Licht und Schatten im sogenannten „KI-Diskurs“

Als vor nahezu 35 Jahren an vielen Universitäten das Fach Informatik eingerichtet wurde, gab es aus heutiger Sicht geradezu merkwürdige Diskussionen. Der Weg der Fakultätsgründungen spülte nicht selten einen besonderen Typ des männlichen Forscherdrangs auf die Lehrstühle. Dieser Typus verbat sich die Einmischung von Seiten der Sozialwissenschaften und wehrte sich gegen Anfragen aus der Zivilgesellschaft. Diese Einmischungen würden zum einen die Freiheit der Wissenschaft beeinträchtigen. Zum anderen seien sie in sich unlogisch, da die Informatik nur Grundlagenforschung betreibe und keinen direkten Anwendungsbezug zur Gesellschaft habe. Mit dieser Abwehrhaltung wollte sich die (damalige) konstruktive Kritik an der (damaligen) Informatik nicht zufrieden geben. Nach kurzer Zeit entfalteten sich an mehreren Hochschulen Forschungszusammenhänge und Institute unter dem Namen „Informatik und Gesellschaft“.

Auch der heutige Verlauf des Diskurses um die sogenannte „Künstliche Intelligenz“ bringt vergleichbare Momente von Licht und Schatten hervor. Es ist ermutigend festzustellen, dass in den Forschungen und Entwicklungen modernster Softwaresysteme zumeist offene Gesprächsverhältnisse vorherrschen und eine große Bereitschaft vorzufinden ist, mit zivilgesellschaftlichen Gruppen in den Dialog zu treten. Dennoch scheinen auch bestimmte Haltungen des Sich-Abgrenzens und des Denkens-in-Elfenbeintürmen zurückzukehren. Wenden wir uns jüngsten Beispielen zu:

Immer mehr schiebt sich in der aktuellen Debatte über die Gestaltung algorithmischer Entscheidungssysteme die Frage in den Vordergrund, ob es besondere Zulassungskriterien für die Nutzung und Anwendungen solcher Algorithmen und deren algorithmischer Entscheidungszusammenhänge geben sollte. Aus dem Forum Soziale Technikgestaltung heraus kommt der Vorschlag nach einem „mitbestimmten Algorithmus“. Dazu haben die Diskussionen mit Kolleginnen und Kollegen dreißig Kriterien für Zulassungen ergeben. Beim Versuch, diese Kriterien, diese Vorschläge aus dem Kreis der Zivilgesellschaft der „KI“-Forschungsgemeinde vorzustellen, kam uns das Argument entgegen, dass die Forschung dieser „KI“-Gemeinde lediglich Grundlagenforschung betreibe und diese Forschung keinen direkten gesellschaftlichen Anwendungsbezug ausweise. Das Forum solle lieber mit der Anwendungsforschung reden.

Über eine solche Aussage kann man nur den Kopf schütteln. Davon abgesehen, dass der Übergang zwischen Grundlagenforschung und Anwendung im Feld moderner Softwareforschung geradezu fließend ist, und dass gesellschaftliche Anforderungen zum frühest möglichen Zeitpunkt in der Arbeit der Forschung Berücksichtigung finden sollten, schadet eine solche Argumentation vor allem dem Anliegen der „KI“-Community selbst. Sie unterminiert die eigene Glaubwürdigkeit. Wer die letzten rund vierzig Jahre Forschung in der Technikfolgenabschätzung und in der Technikfolgenforschung betrachtet, stellt zudem unumwunden fest, dass der Abgrenzungsschritt („Grundlagenforschung“) auch einer modernen Methodendiskussion nicht standhält.

Mit einem weiteren Kopfschütteln muss man einen anderen Vorgang betrachten. Da hat sich ein kompetenter Kopf der verdienstvollen Aufgabe zugewandt, die nationale und internationale Diskussion zu durchforsten, um zu prüfen, welche Anforderungen akademische Autorinnen und Autoren an die Entwicklung neuer sogenannter „KI-Anwendungen“ formulieren. Erfreulich war im Ergebnis, dass die Anforderung nach Schutz der Privatheit den Spitzenplatz einnahm. Es folgten weitere – auch aus gewerkschaftlicher Sicht – gute Kriterien. Auf die Frage aber, warum nicht auch die vielfältigen Anforderungen aus der Zivilgesellschaft in diese wertende Übersicht aufgenommen wurden, kam die geradezu frappierende Antwort, dass er mit seinem Aufsatz im Wettbewerb mit internationalen Wissenschaftlern stehe und da passe der zivilgesellschaftliche Ansatz nicht hinein.

Zugegeben, die beschriebenen Beispiele zum Kopfschütteln sind Einzelfälle. Viele Akteure aus der Forschung würden über besagtes Verhalten selbst den Kopf schütteln. Dennoch ist es für die zivilgesellschaftliche Seite das Gegenteil von Ermutigung.