Einladung zum Fachworkshop: Ethische und soziale Kriterien zur Gestaltung algorithmischer Steuerungs- und Entscheidungssysteme

Ein Dialog zwischen dem „Forum Soziale Technikgestaltung“ (FST), dem Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO und Cyber Valley anlässlich „Dreißig Jahre Forum Soziale Technikgestaltung“

Workshop am 27. Oktober 2021 von 14.30 Uhr bis 18.45 Uhr in den Räumen des Fraunhofer IAO in Stuttgart-Vaihingen

Seit langem arbeiten Wissenschaftlerinnen und Wissenschaftler an mathematisch-technischen Systemen, die die Arbeit des Menschen auf sogenannte „intelligente“ Weise effizienter gestalten und erleichtern sollen. Dabei entstehen auf der Basis von Maschinellem Lernen auch vielfältige Modelle oder Systeme, die unter dem Begriff „Künstliche Intelligenz“ zusammengefasst werden. Im Kern geht es dabei oft um die Frage, wie komplexe Analyseprozesse auf ein digitales algorithmisches System übertragen werden können und nach welchen mathematisierbaren Kriterien diese (Assistenz-)Systeme Entscheidungen treffen sollen.

Das gewerkschaftliche „Forum Soziale Technikgestaltung“ befasst sich seit dreißig Jahren mit der Humanisierung digital gestützter Arbeitswelten. Seit mehreren Jahren entwickelt das FST Kriterien zur Gestaltung algorithmischer Steuerungs- und Entscheidungssysteme. In dem Dialog-Fachworkshop soll der bisherige Stand der FST-Kriterien zur Diskussion gestellt und weiterentwickelt werden. Das FST spricht in Ergänzung zum Begriff „Assistenztechnik“ von der notwendigen Gestaltung der „Delegationstechnik“.

Das Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO entwickelt gemeinsam mit Unternehmen, Institutionen und Einrichtungen der öffentlichen Hand Strategien, Geschäftsmodelle und Lösungen für die digitale Transformation. Es ist mitverantwortlich für das KI-Fortschrittszentrum »Lernende Systeme«, das durch Technologietransfer die Lücke zwischen KI-Spitzenforschung und der breiten Anwendung in der produzierenden Industrie schließt.

Cyber Valley ist Europas größtes Forschungskonsortium im Bereich der künstlichen Intelligenz mit Partnern aus Wissenschaft und Industrie. Das Land Baden-Württemberg, die Max-Planck-Gesellschaft mit dem Max-Planck-Institut für Intelligente Systeme, die Universitäten Stuttgart und Tübingen sind u.a. die Gründungspartner dieser Initiative. Das Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO ist assoziiert mit Cyber Valley.

Ablauf

14.30 Uhr Begrüßung und Einführung
Ziele des Dialog-Workshops
Welf Schröter, Leiter des Forum Soziale Technikgestaltung beim DGB Baden-Württemberg
Dr. Matthias Tröndle, Cyber Valley, General Manager

14.45 Uhr Vortrag I
Ethische Anforderungen an die Gestaltung von KI-Technologien
PD Dr. Jessica Heesen, Forschungsschwerpunkt Medienethik und Informationstechnik (Leitung), Internationales Zentrum für Ethik in den Wissenschaften, Universität Tübingen

15.15 Uhr Rückfragen

15.30 Uhr Vortrag II
Soziale Kriterien für die Gestaltung algorithmischer Steuerungs- und Entscheidungssysteme zwischen Assistenz- und Delegationstechnik
Welf Schröter, Leiter des „Forum Soziale Technikgestaltung“, Mitbegründer der „Allianz Industrie 4.0 Baden-Württemberg“

16.00 Uhr Rückfragen

16.15 Uhr Kaffeepause

16.40 Uhr Vortrag III
Anforderungen an die Entwicklung von KI-Systemen
Dr. Matthias Peissner, Leiter Forschungsbereich Mensch-Technik-Interaktion, Fraunhofer IAO, Partner im Cyber Valley

17.10 Uhr Nachfragen

17.25 Uhr Vortrag IV
Die Gestaltung von KI-Systemen aus betriebsrätlicher Perspektive
Monika Heim, Festo SE & Co. KG, Betriebsrat Esslingen

17.55 Rückfragen

18.10 Uhr Moderierte Plenumsdiskussion der Vortragenden und Teilnehmenden
Moderation: Patrick Klügel, Cyber Valley, Public Engagement Manager

18.45 Uhr Ende der Veranstaltung

Eintritt frei. Anmeldung erforderlich bei: Welf Schröter schroeter@talheimer.de

 

Ist die Bezeichnung „Künstliche Intelligenz“ sinnvoll?

Im Widerstand der Alliierten gegen die Hitler-Diktatur haben sich in den vierziger Jahren Wissenschaftlerinnen und Wissenschaftler zusammengefunden, um durch neue Wege der Informationsverarbeitung dazu beizutragen, den Nationalsozialismus zu zerschlagen. Die heutige Debatte über die sogenannte „Künstliche Intelligenz“ hat eine lange Vorgeschichte. Da sei beispielhaft an den Tübinger Biokybernetiker Prof. Dr. Valentin Braitenberg erinnert, der in den achtziger Jahren des letzten Jahrhunderts sein Engagement für „KI“ unter anderem mit dem Verweis auf die Shoah begründete.

Doch heute findet sich außerhalb des wissenschaftlichen Diskurses eine Fülle von Marketing-Versprechungen, die dazu geeignet sind, die Ideen, die hinter dem Traum der „KI“ stehen, erheblich zu beschädigen. Da verkünden große Firmen, dass demnächst das Auto besser denken könne als der Mensch. Was für ein Menschenbild steht hinter dieser Äußerung? An anderer Stelle des allgegenwärtigen Messe-Slangs werden alte Software-Hüte aus dreißig Jahren Digitalisierung als neue Produkte eines „KI“-Marktes präsentiert. Die Expertensysteme der neunziger Jahre, die Softwareagentensysteme aus der Zeit kurz nach der Jahrtausendwende und die Schlüsselanwendungen aus dem Jahr 2011 – gemeint sind die „Cyber-Physischen Systeme“ der „Industrie 4.0“ – sind plötzlich der jüngste Schrei der „KI“. Wir sollten nüchterner und ehrlicher werden. Helfen uns neue Etiketten für alte Produkte? Was gibt es schon lange? Was ist wirklich neu?

Die vermeintliche „KI“ ist auch mit den Worten „Robotik“ oder „selbstfahrende Autos“ nicht erklärt. Die mathematische Informationsverarbeitung ist Software. Das Blech der Roboter und der Autos ist nur das Anhängsel der Software. Die vernünftige Übersetzung des amerikanisch-englischen Wortes „artificial intelligence“ lautet nicht „Künstliche Intelligenz“ sondern „Künstliche Nachbildung“. Damit kommen wir dem Thema näher.

Seien wir mutig und ehrlich zugleich. Bei der Beantwortung der Frage, was tatsächlich neu ist, finden wir zu einer selbstbewussten Haltung des Respekts gegenüber verantwortungsbewussten IT-Teams zurück. Hinter dem Marketing-Hype steckt ein tatsächlicher Fortschritt: Was wir an neuen IT-technischen Leistungen vorfinden, hat aber nichts mit Software-„Intelligenz“ zu tun. Es „denkt“ nicht, „lernt“ nicht und hat kein „Ich“. Die Leistung steckt in brillanten Lösungen auf dem Gebiet der mathematischen und mathematisierenden Informationsverarbeitung. Brillante Mathematik. Von Menschen gemacht, von Menschen gestaltbar.

Das wirklich Neue liegt in mindestens zwei Perspektiven: Neben Software als starres, sich nicht veränderndes Werkzeug tritt Software als ein sich selbst veränderndes Werkzeug. Hinzu kommt die weitreichende Öffnung der Software-Entwicklung von der Qualität der „Assistenztechnik“ hin zum Potenzial der „Delegationstechnik“ (Schröter). Somit kann eine Software die Vollmacht bekommen, hinter dem Rücken des Menschen in Echtzeit rechtsverbindliche Prozesse (Transaktionen) zu analysieren, zu steuern und zu entscheiden. Das ist wirklich neu. Aber auch diese „Delegationstechnik“ „denkt“ nicht, „lernt“ nicht, hat kein „Ich“. Es bleibt Mathematik. Allerdings in exzellenter Form. Wir benötigen diese Technik unter anderem für das Erreichen der Klimaneutralität.

Sollen wir weiterhin von „KI“ reden? Es wäre ehrlicher, etwas tiefer anzusetzen. Vielleicht hilft – als provisorische Zwischenstufe für das Weiterdenken – nachfolgende Formulierung auf der Basis langjähriger Erfahrungen aus dem „Forum Soziale Technikgestaltung“ bei arbeitsweltbezogenen Technikeinführungen:

Es geht um die soziale Gestaltung „algorithmischer Steuerungs- und Entscheidungs-systeme“. Oder etwas umfänglicher ausgedrückt: Es geht um die Gestaltung „algorithmischer, sich selbst verändernder Software-Systeme für die arbeitsweltlichen Vorgänge wie Analyse, Entscheidungsvorbereitung, Prozesssteuerung und Entscheidungsvollzug im Feld der Assistenz- und Delegationstechnik“ (Schröter).

 

Black Lives Matter – Nur gestaltete Algorithmen können Diskriminierung verhindern helfen

Seit mehreren Jahren wird im gewerkschaftsnahen Forum Soziale Technikgestaltung (FST) über die Möglichkeiten diskutiert, wie neuere Formen von selbstentscheidender und sich-selbst-verändernder Software an rechtliche Vorgaben und soziale Standards angepasst werden können. Für die soziale Gestaltung von Algorithmen und algorithmischen Entscheidungssystemen hat das FST dreißig grundsätzliche (generische) Kriterien entwickelt und zur Diskussion gestellt. Auf diese Weise sollen Software-Systeme, die durch ständige neue Datenaufnahmen veränderte Entscheidungen treffen können, demokratisch und human ausgerichtet werden.

Diese Gestaltungsprozesse müssen einerseits durch neue Wege der betrieblichen Mitbestimmung durchgesetzt werden. Andererseits benötigt unsere politische Zivilgesellschaft verbindliche rechtliche Spielregeln, wie verankert und institutionell abgesichert werden kann, dass technische Systeme nicht die Oberhand über den Menschen, über die Bürgerin, über den Bürger gewinnen. Eine demokratische Gesellschaft muss gewährleisten, dass technische Innovationen als Assistenzsysteme wirken, aber nicht als Delegationssysteme anstelle des Menschen entscheiden. Der Mensch muss das Interventionsrecht besitzen. Entscheidungen über Menschen sind von Menschen zu treffen nicht von vermeintlich „selbstlernenden“ Software-Systemen.

Der Einsatz solcher algorithmischer Entscheidungssysteme in den Gesundheitswesen in den USA hat sehr deutlich gezeigt, dass nicht-gestaltete und gesellschaftlich nicht-kontrollierte Algorithmen vorhandene Vorurteile, Ausgrenzungen und Rassismen verstärken. Mangelhafte Aushandlungsprozesse zwischen Entwickelnden und Nutzenden (Spezifizierungen) befördern verdeckte oder offene Diskriminierung anstatt sie zu beseitigen. Auch für die gesellschaftliche Implementierung der Algorithmen und der algorithmischen Entscheidungssysteme gilt: Black lives matter.