Black Lives Matter – Nur gestaltete Algorithmen können Diskriminierung verhindern helfen

Seit mehreren Jahren wird im gewerkschaftsnahen Forum Soziale Technikgestaltung (FST) über die Möglichkeiten diskutiert, wie neuere Formen von selbstentscheidender und sich-selbst-verändernder Software an rechtliche Vorgaben und soziale Standards angepasst werden können. Für die soziale Gestaltung von Algorithmen und algorithmischen Entscheidungssystemen hat das FST dreißig grundsätzliche (generische) Kriterien entwickelt und zur Diskussion gestellt. Auf diese Weise sollen Software-Systeme, die durch ständige neue Datenaufnahmen veränderte Entscheidungen treffen können, demokratisch und human ausgerichtet werden.

Diese Gestaltungsprozesse müssen einerseits durch neue Wege der betrieblichen Mitbestimmung durchgesetzt werden. Andererseits benötigt unsere politische Zivilgesellschaft verbindliche rechtliche Spielregeln, wie verankert und institutionell abgesichert werden kann, dass technische Systeme nicht die Oberhand über den Menschen, über die Bürgerin, über den Bürger gewinnen. Eine demokratische Gesellschaft muss gewährleisten, dass technische Innovationen als Assistenzsysteme wirken, aber nicht als Delegationssysteme anstelle des Menschen entscheiden. Der Mensch muss das Interventionsrecht besitzen. Entscheidungen über Menschen sind von Menschen zu treffen nicht von vermeintlich „selbstlernenden“ Software-Systemen.

Der Einsatz solcher algorithmischer Entscheidungssysteme in den Gesundheitswesen in den USA hat sehr deutlich gezeigt, dass nicht-gestaltete und gesellschaftlich nicht-kontrollierte Algorithmen vorhandene Vorurteile, Ausgrenzungen und Rassismen verstärken. Mangelhafte Aushandlungsprozesse zwischen Entwickelnden und Nutzenden (Spezifizierungen) befördern verdeckte oder offene Diskriminierung anstatt sie zu beseitigen. Auch für die gesellschaftliche Implementierung der Algorithmen und der algorithmischen Entscheidungssysteme gilt: Black lives matter.

 

Licht und Schatten im sogenannten „KI-Diskurs“

Als vor nahezu 35 Jahren an vielen Universitäten das Fach Informatik eingerichtet wurde, gab es aus heutiger Sicht geradezu merkwürdige Diskussionen. Der Weg der Fakultätsgründungen spülte nicht selten einen besonderen Typ des männlichen Forscherdrangs auf die Lehrstühle. Dieser Typus verbat sich die Einmischung von Seiten der Sozialwissenschaften und wehrte sich gegen Anfragen aus der Zivilgesellschaft. Diese Einmischungen würden zum einen die Freiheit der Wissenschaft beeinträchtigen. Zum anderen seien sie in sich unlogisch, da die Informatik nur Grundlagenforschung betreibe und keinen direkten Anwendungsbezug zur Gesellschaft habe. Mit dieser Abwehrhaltung wollte sich die (damalige) konstruktive Kritik an der (damaligen) Informatik nicht zufrieden geben. Nach kurzer Zeit entfalteten sich an mehreren Hochschulen Forschungszusammenhänge und Institute unter dem Namen „Informatik und Gesellschaft“.

Auch der heutige Verlauf des Diskurses um die sogenannte „Künstliche Intelligenz“ bringt vergleichbare Momente von Licht und Schatten hervor. Es ist ermutigend festzustellen, dass in den Forschungen und Entwicklungen modernster Softwaresysteme zumeist offene Gesprächsverhältnisse vorherrschen und eine große Bereitschaft vorzufinden ist, mit zivilgesellschaftlichen Gruppen in den Dialog zu treten. Dennoch scheinen auch bestimmte Haltungen des Sich-Abgrenzens und des Denkens-in-Elfenbeintürmen zurückzukehren. Wenden wir uns jüngsten Beispielen zu:

Immer mehr schiebt sich in der aktuellen Debatte über die Gestaltung algorithmischer Entscheidungssysteme die Frage in den Vordergrund, ob es besondere Zulassungskriterien für die Nutzung und Anwendungen solcher Algorithmen und deren algorithmischer Entscheidungszusammenhänge geben sollte. Aus dem Forum Soziale Technikgestaltung heraus kommt der Vorschlag nach einem „mitbestimmten Algorithmus“. Dazu haben die Diskussionen mit Kolleginnen und Kollegen dreißig Kriterien für Zulassungen ergeben. Beim Versuch, diese Kriterien, diese Vorschläge aus dem Kreis der Zivilgesellschaft der „KI“-Forschungsgemeinde vorzustellen, kam uns das Argument entgegen, dass die Forschung dieser „KI“-Gemeinde lediglich Grundlagenforschung betreibe und diese Forschung keinen direkten gesellschaftlichen Anwendungsbezug ausweise. Das Forum solle lieber mit der Anwendungsforschung reden.

Über eine solche Aussage kann man nur den Kopf schütteln. Davon abgesehen, dass der Übergang zwischen Grundlagenforschung und Anwendung im Feld moderner Softwareforschung geradezu fließend ist, und dass gesellschaftliche Anforderungen zum frühest möglichen Zeitpunkt in der Arbeit der Forschung Berücksichtigung finden sollten, schadet eine solche Argumentation vor allem dem Anliegen der „KI“-Community selbst. Sie unterminiert die eigene Glaubwürdigkeit. Wer die letzten rund vierzig Jahre Forschung in der Technikfolgenabschätzung und in der Technikfolgenforschung betrachtet, stellt zudem unumwunden fest, dass der Abgrenzungsschritt („Grundlagenforschung“) auch einer modernen Methodendiskussion nicht standhält.

Mit einem weiteren Kopfschütteln muss man einen anderen Vorgang betrachten. Da hat sich ein kompetenter Kopf der verdienstvollen Aufgabe zugewandt, die nationale und internationale Diskussion zu durchforsten, um zu prüfen, welche Anforderungen akademische Autorinnen und Autoren an die Entwicklung neuer sogenannter „KI-Anwendungen“ formulieren. Erfreulich war im Ergebnis, dass die Anforderung nach Schutz der Privatheit den Spitzenplatz einnahm. Es folgten weitere – auch aus gewerkschaftlicher Sicht – gute Kriterien. Auf die Frage aber, warum nicht auch die vielfältigen Anforderungen aus der Zivilgesellschaft in diese wertende Übersicht aufgenommen wurden, kam die geradezu frappierende Antwort, dass er mit seinem Aufsatz im Wettbewerb mit internationalen Wissenschaftlern stehe und da passe der zivilgesellschaftliche Ansatz nicht hinein.

Zugegeben, die beschriebenen Beispiele zum Kopfschütteln sind Einzelfälle. Viele Akteure aus der Forschung würden über besagtes Verhalten selbst den Kopf schütteln. Dennoch ist es für die zivilgesellschaftliche Seite das Gegenteil von Ermutigung.