Handlungsempfehlungen für Sozialpartner

Im Rahmen des vom Bundesforschungsministerium BMBF geförderten Projektes KARL hat das „Forum Soziale Technikgestaltung“ (FST) zehn Kurz-Videos (Screencast-Videos, d.h. Powerpointfolien mit darüber gelegter Sprache) zur Unterstützung betrieblicher Mitbestimmungsprozesse erstellt.

Die Abkürzung KARL steht für „Kompetenzzentrum KARL – Künstliche Intelligenz für Arbeit und Lernen in der Region Karlsruhe“. Das FST ist Partner in KARL. Die zehn „KARL-kurzimpulse“ sind an beide Sozialpartner in Unternehmen, Dienstleistung und Verwaltung adressiert. In jeweils nur wenigen Minuten werden den Akteuren (Arbeitgeber und Beschäftigtenvertretung) Handlungsimpulse und Handlungsempfehlungen in verständlicher Sprache gegeben.

Die Kurzvideos haben Menschen im Blick, die schon auf lange Lebenserfahrungen zurückblicken können. Die „kurzimpulse“ sind sehr nüchtern, sachlich verdichtet und ruhig angelegt – ohne unnötige interaktive Ablenkung. Sie dauern jeweils plus/minus drei Minuten. Nur der letzte Teil mit Vertiefungsvorschlägen erreicht etwas mehr als sieben Minuten.

Zehn KARL-kurzimpulse – Praxistipps in Alltagssprache zur erfolgreichen Einführung komplexer Technik – Vorschläge an die Sozialpartner

kurzimpuls 01 (3:45 Min.) Ein Angebot für Sozialpartnerinnen und Sozialpartner in der mitbestimmten Arbeitswelt. Vorbemerkung und Übersicht über die KARL-Video-kurzimpulse

kurzimpuls 02 (2:50 Min.) Was ist aus der Sicht der Arbeitswelt bei der kommenden Stufe der Digitalisierung wirklich neu?

kurzimpuls 03 (2:49 Min.) Warum wir unterscheiden sollten, was „Nachholende Digitalisierung“ darstellt und was darüber hinaus geht?

kurzimpuls 04 (2:16 Min.) Was ist unter dem Begriff der „Assistenztechnik“ zu verstehen?

kurzimpuls 05 (2:16 Min.) Was bedeutet „Delegationstechnik“?

kurzimpuls 06 (3:39 Min.) Was ist das Besondere an „sich selbst verändernder Delegationstechnik“?

kurzimpuls 07 (2:36 Min.) Die Einführung komplexer „Delegationstechnik“ benötigt neue Aushandlungsformate

kurzimpuls 08 (2:19 Min.) „Moderierter Spezifikationsdialog“ – Was ist darunter zu verstehen?

kurzimpuls 09 (2:35 Min.) Eine wichtige Empfehlung: Erst Arbeitsabläufe verbessern, dann digitale Technik auswählen!

kurzimpuls 10 (7:45 Min.) Praxistipps und Umsetzungshilfen für Sozialpartner zur gemeinsamen Einführung algorithmischer Systeme. Ergänzung: Link-Liste als pdf-Datei

„Mitbestimmungsplan“ und „Checkliste“ zur Gestaltung sogenannter „Künstlicher Intelligenz“

„Wie wir die sogenannte ,Künstliche Intelligenz‘ gestalten“ – unter diesem Leitmotiv haben Kolleginnen und Kollegen aus Beschäftigtenvertretungen im Verbund des Personennetzwerkes „Forum Soziale Technikgestaltung“ (FST) zwei zusätzliche Schritte der Mitbestimmung entworfen: Ein ergänzender „Mitbestimmungsplan“ wendet sich zunächst an Beschäftigtenvertretungen von größeren Unternehmen und Verwaltungen. Sie können mit diesem „Mitbestimmungsplan“ vorangehen und als Beispiele für andere wirken. Ziel ist es, Kolleginnen und Kollegen zum Handeln zu ermutigen. Der „Mitbestimmungsplan“ führt zusätzliche Schritte wie etwa das Format „Moderierter Spezifikationsdialog“ und die FST-„Checkliste“ ein. Zugleich setzt dieser „Mitbestimmungsplan“ fünf neuartige Fragen an den Anfang jedes Gestaltungs- und Mitbestimmungsvorganges, durch den komplexe algorithmische Systeme eingeführt werden sollen.

Der „Mitbestimmungsplan“ unterscheidet zwischen einerseits Technik, die den Menschen unterstützt. Dabei bleibt die Entscheidungshoheit beim Menschen. Diese Technik trägt den Namen „Assistenztechnik“. Andererseits gibt es Technik, auf die eine Vollmacht übertragen wird. Eine solche Technik kann selbst Entscheidungen treffen. Diese Technik lässt sich als Vollmachtstechnik oder „Delegationstechnik“ bezeichnen. Für die Gestaltung der Vollmachtstechnik benötigt die Mitbestimmung einen zusätzlichen Baustein: Eine Interessensaushandlung zwischen dem Erfahrungswissen der Belegschaft und dem Wissen des IT-Teams. Diese Aushandlung erfolgt vor der Einführung der „Delegationstechnik“. Die Aushandlung wird „Moderierter Spezifikationsdialog“ genannt. Er muss in einer Vereinbarung verankert werden.

Zum die bisherige Praxis ergänzenden FST-„Mitbestimmungsplan“ stellt das FST eine neue „Checkliste“ bereit. Sie dient Kolleginnen und Kollegen in Euro-BRs, KBRs, GBR, BRs, GPRs, PRs und MAVs als Orientierung: Wo stehen wir? Worum geht es? Was können wir? Wo benötigen wir Beratung? Die „Checkliste“ schafft in wenigen Minuten Klarheit über die Dimension einer IT-Einführung.

Link zum „Mitbestimmungsplan“

(Es wird empfohlen, den „Mitbestimmungsplan“ farbig auszudrucken und farbig auf ein A3-Format zu vergrößern. Dieses kann an geeigneter Stelle an die Wand geklebt werden.)

Link zur „Checkliste“

Zum Stand der FST-Diskussion: Ein aktueller Beitrag zum Nachlesen

Soziale Gestaltung der sogenannten „Künstlichen Intelligenz“:
Das FST-Projekt „Der mitbestimmte Algorithmus“

Das „Forum Soziale Technikgestaltung“ (FST) hat eine Reihe zusätzlicher Impulse und Gedanken entwickelt, wie die sogenannte „Künstliche Intelligenz“ sozial, ethisch und rechtlich gestaltet werden sollte. Einen Überblick über den Stand der Überlegungen vermttelt ein jetzt neu veröffentlichter Text. Der vom Leiter des FST verfasste Beitrag ist in dem soeben erschienenen Online-Magazin „DENK-doch-MAL“ veröffentlicht. „DENK-doch-MAL“ wird gemeinsam vom IG Metall Vorstand und von der ver.di Bundesverwaltung getragen. Der IG Metall-Vorsitzende Jörg Hoffmann hat die presserechtliche Verantwortung. Die betreuende lektorierende Redaktionsarbeit liegt in den kompetenten Händen von Bernd Kaßebaum und dem „DENK-doch-MAL“-Team. Ihnen sei für die gute Zusammenarbeit besonders gedankt.

Der FST-Beitrag „Der mitbestimmte Algorithmus“ – Ein erweiternder Ansatz zur Gestaltung der sogenannten „Künstlichen Intelligenz“ geht auf folgende Aspekte ein:

  • Dreißig Jahre „Forum Soziale Technikgestaltung“
  • Ein klärend helfender Begriff: „Nachholende Digitalisierung“
  • Kritik des unzureichenden Begriffes „Künstliche Intelligenz“
  • Ein notwendiger neuer Begriff: „Delegationstechnik“
  • Ein korrigierender Begriff: „Algorithmisches Steuerungs- und Entscheidungssystem“
  • Ein überraschender Begriff: „Sich selbst verändernde Software-Werkzeuge“
  • Ein unabdingbarer Begriff: „Antizipierende vorausschauende Arbeitsgestaltung“
  • Ein zusätzlicher Praxisbegriff: „Moderierte Spezifikationsdialoge“
  • Etablierung von belastbaren Erfahrungsdiskursen

Der Text ist frei zugänglich unter dem Link 

 

Einladung zum Fachworkshop: Ethische und soziale Kriterien zur Gestaltung algorithmischer Steuerungs- und Entscheidungssysteme

Ein Dialog zwischen dem „Forum Soziale Technikgestaltung“ (FST), dem Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO und Cyber Valley anlässlich „Dreißig Jahre Forum Soziale Technikgestaltung“

Workshop am 27. Oktober 2021 von 14.30 Uhr bis 18.45 Uhr in den Räumen des Fraunhofer IAO in Stuttgart-Vaihingen

Seit langem arbeiten Wissenschaftlerinnen und Wissenschaftler an mathematisch-technischen Systemen, die die Arbeit des Menschen auf sogenannte „intelligente“ Weise effizienter gestalten und erleichtern sollen. Dabei entstehen auf der Basis von Maschinellem Lernen auch vielfältige Modelle oder Systeme, die unter dem Begriff „Künstliche Intelligenz“ zusammengefasst werden. Im Kern geht es dabei oft um die Frage, wie komplexe Analyseprozesse auf ein digitales algorithmisches System übertragen werden können und nach welchen mathematisierbaren Kriterien diese (Assistenz-)Systeme Entscheidungen treffen sollen.

Das gewerkschaftliche „Forum Soziale Technikgestaltung“ befasst sich seit dreißig Jahren mit der Humanisierung digital gestützter Arbeitswelten. Seit mehreren Jahren entwickelt das FST Kriterien zur Gestaltung algorithmischer Steuerungs- und Entscheidungssysteme. In dem Dialog-Fachworkshop soll der bisherige Stand der FST-Kriterien zur Diskussion gestellt und weiterentwickelt werden. Das FST spricht in Ergänzung zum Begriff „Assistenztechnik“ von der notwendigen Gestaltung der „Delegationstechnik“.

Das Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO entwickelt gemeinsam mit Unternehmen, Institutionen und Einrichtungen der öffentlichen Hand Strategien, Geschäftsmodelle und Lösungen für die digitale Transformation. Es ist mitverantwortlich für das KI-Fortschrittszentrum »Lernende Systeme«, das durch Technologietransfer die Lücke zwischen KI-Spitzenforschung und der breiten Anwendung in der produzierenden Industrie schließt.

Cyber Valley ist Europas größtes Forschungskonsortium im Bereich der künstlichen Intelligenz mit Partnern aus Wissenschaft und Industrie. Das Land Baden-Württemberg, die Max-Planck-Gesellschaft mit dem Max-Planck-Institut für Intelligente Systeme, die Universitäten Stuttgart und Tübingen sind u.a. die Gründungspartner dieser Initiative. Das Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO ist assoziiert mit Cyber Valley.

Ablauf

14.30 Uhr Begrüßung und Einführung
Ziele des Dialog-Workshops
Welf Schröter, Leiter des Forum Soziale Technikgestaltung beim DGB Baden-Württemberg
Dr. Matthias Tröndle, Cyber Valley, General Manager

14.45 Uhr Vortrag I
Ethische Anforderungen an die Gestaltung von KI-Technologien
PD Dr. Jessica Heesen, Forschungsschwerpunkt Medienethik und Informationstechnik (Leitung), Internationales Zentrum für Ethik in den Wissenschaften, Universität Tübingen

15.15 Uhr Rückfragen

15.30 Uhr Vortrag II
Soziale Kriterien für die Gestaltung algorithmischer Steuerungs- und Entscheidungssysteme zwischen Assistenz- und Delegationstechnik
Welf Schröter, Leiter des „Forum Soziale Technikgestaltung“, Mitbegründer der „Allianz Industrie 4.0 Baden-Württemberg“

16.00 Uhr Rückfragen

16.15 Uhr Kaffeepause

16.40 Uhr Vortrag III
Anforderungen an die Entwicklung von KI-Systemen
Dr. Matthias Peissner, Leiter Forschungsbereich Mensch-Technik-Interaktion, Fraunhofer IAO, Partner im Cyber Valley

17.10 Uhr Nachfragen

17.25 Uhr Vortrag IV
Die Gestaltung von KI-Systemen aus betriebsrätlicher Perspektive
Monika Heim, Festo SE & Co. KG, Betriebsrat Esslingen

17.55 Rückfragen

18.10 Uhr Moderierte Plenumsdiskussion der Vortragenden und Teilnehmenden
Moderation: Patrick Klügel, Cyber Valley, Public Engagement Manager

18.45 Uhr Ende der Veranstaltung

Eintritt frei. Anmeldung erforderlich bei: Welf Schröter schroeter@talheimer.de

 

Ist die Bezeichnung „Künstliche Intelligenz“ sinnvoll?

Im Widerstand der Alliierten gegen die Hitler-Diktatur haben sich in den vierziger Jahren Wissenschaftlerinnen und Wissenschaftler zusammengefunden, um durch neue Wege der Informationsverarbeitung dazu beizutragen, den Nationalsozialismus zu zerschlagen. Die heutige Debatte über die sogenannte „Künstliche Intelligenz“ hat eine lange Vorgeschichte. Da sei beispielhaft an den Tübinger Biokybernetiker Prof. Dr. Valentin Braitenberg erinnert, der in den achtziger Jahren des letzten Jahrhunderts sein Engagement für „KI“ unter anderem mit dem Verweis auf die Shoah begründete.

Doch heute findet sich außerhalb des wissenschaftlichen Diskurses eine Fülle von Marketing-Versprechungen, die dazu geeignet sind, die Ideen, die hinter dem Traum der „KI“ stehen, erheblich zu beschädigen. Da verkünden große Firmen, dass demnächst das Auto besser denken könne als der Mensch. Was für ein Menschenbild steht hinter dieser Äußerung? An anderer Stelle des allgegenwärtigen Messe-Slangs werden alte Software-Hüte aus dreißig Jahren Digitalisierung als neue Produkte eines „KI“-Marktes präsentiert. Die Expertensysteme der neunziger Jahre, die Softwareagentensysteme aus der Zeit kurz nach der Jahrtausendwende und die Schlüsselanwendungen aus dem Jahr 2011 – gemeint sind die „Cyber-Physischen Systeme“ der „Industrie 4.0“ – sind plötzlich der jüngste Schrei der „KI“. Wir sollten nüchterner und ehrlicher werden. Helfen uns neue Etiketten für alte Produkte? Was gibt es schon lange? Was ist wirklich neu?

Die vermeintliche „KI“ ist auch mit den Worten „Robotik“ oder „selbstfahrende Autos“ nicht erklärt. Die mathematische Informationsverarbeitung ist Software. Das Blech der Roboter und der Autos ist nur das Anhängsel der Software. Die vernünftige Übersetzung des amerikanisch-englischen Wortes „artificial intelligence“ lautet nicht „Künstliche Intelligenz“ sondern „Künstliche Nachbildung“. Damit kommen wir dem Thema näher.

Seien wir mutig und ehrlich zugleich. Bei der Beantwortung der Frage, was tatsächlich neu ist, finden wir zu einer selbstbewussten Haltung des Respekts gegenüber verantwortungsbewussten IT-Teams zurück. Hinter dem Marketing-Hype steckt ein tatsächlicher Fortschritt: Was wir an neuen IT-technischen Leistungen vorfinden, hat aber nichts mit Software-„Intelligenz“ zu tun. Es „denkt“ nicht, „lernt“ nicht und hat kein „Ich“. Die Leistung steckt in brillanten Lösungen auf dem Gebiet der mathematischen und mathematisierenden Informationsverarbeitung. Brillante Mathematik. Von Menschen gemacht, von Menschen gestaltbar.

Das wirklich Neue liegt in mindestens zwei Perspektiven: Neben Software als starres, sich nicht veränderndes Werkzeug tritt Software als ein sich selbst veränderndes Werkzeug. Hinzu kommt die weitreichende Öffnung der Software-Entwicklung von der Qualität der „Assistenztechnik“ hin zum Potenzial der „Delegationstechnik“ (Schröter). Somit kann eine Software die Vollmacht bekommen, hinter dem Rücken des Menschen in Echtzeit rechtsverbindliche Prozesse (Transaktionen) zu analysieren, zu steuern und zu entscheiden. Das ist wirklich neu. Aber auch diese „Delegationstechnik“ „denkt“ nicht, „lernt“ nicht, hat kein „Ich“. Es bleibt Mathematik. Allerdings in exzellenter Form. Wir benötigen diese Technik unter anderem für das Erreichen der Klimaneutralität.

Sollen wir weiterhin von „KI“ reden? Es wäre ehrlicher, etwas tiefer anzusetzen. Vielleicht hilft – als provisorische Zwischenstufe für das Weiterdenken – nachfolgende Formulierung auf der Basis langjähriger Erfahrungen aus dem „Forum Soziale Technikgestaltung“ bei arbeitsweltbezogenen Technikeinführungen:

Es geht um die soziale Gestaltung „algorithmischer Steuerungs- und Entscheidungs-systeme“. Oder etwas umfänglicher ausgedrückt: Es geht um die Gestaltung „algorithmischer, sich selbst verändernder Software-Systeme für die arbeitsweltlichen Vorgänge wie Analyse, Entscheidungsvorbereitung, Prozesssteuerung und Entscheidungsvollzug im Feld der Assistenz- und Delegationstechnik“ (Schröter).

 

Black Lives Matter – Nur gestaltete Algorithmen können Diskriminierung verhindern helfen

Seit mehreren Jahren wird im gewerkschaftsnahen Forum Soziale Technikgestaltung (FST) über die Möglichkeiten diskutiert, wie neuere Formen von selbstentscheidender und sich-selbst-verändernder Software an rechtliche Vorgaben und soziale Standards angepasst werden können. Für die soziale Gestaltung von Algorithmen und algorithmischen Entscheidungssystemen hat das FST dreißig grundsätzliche (generische) Kriterien entwickelt und zur Diskussion gestellt. Auf diese Weise sollen Software-Systeme, die durch ständige neue Datenaufnahmen veränderte Entscheidungen treffen können, demokratisch und human ausgerichtet werden.

Diese Gestaltungsprozesse müssen einerseits durch neue Wege der betrieblichen Mitbestimmung durchgesetzt werden. Andererseits benötigt unsere politische Zivilgesellschaft verbindliche rechtliche Spielregeln, wie verankert und institutionell abgesichert werden kann, dass technische Systeme nicht die Oberhand über den Menschen, über die Bürgerin, über den Bürger gewinnen. Eine demokratische Gesellschaft muss gewährleisten, dass technische Innovationen als Assistenzsysteme wirken, aber nicht als Delegationssysteme anstelle des Menschen entscheiden. Der Mensch muss das Interventionsrecht besitzen. Entscheidungen über Menschen sind von Menschen zu treffen nicht von vermeintlich „selbstlernenden“ Software-Systemen.

Der Einsatz solcher algorithmischer Entscheidungssysteme in den Gesundheitswesen in den USA hat sehr deutlich gezeigt, dass nicht-gestaltete und gesellschaftlich nicht-kontrollierte Algorithmen vorhandene Vorurteile, Ausgrenzungen und Rassismen verstärken. Mangelhafte Aushandlungsprozesse zwischen Entwickelnden und Nutzenden (Spezifizierungen) befördern verdeckte oder offene Diskriminierung anstatt sie zu beseitigen. Auch für die gesellschaftliche Implementierung der Algorithmen und der algorithmischen Entscheidungssysteme gilt: Black lives matter.