Black Lives Matter – Nur gestaltete Algorithmen können Diskriminierung verhindern helfen

Seit mehreren Jahren wird im gewerkschaftsnahen Forum Soziale Technikgestaltung (FST) über die Möglichkeiten diskutiert, wie neuere Formen von selbstentscheidender und sich-selbst-verändernder Software an rechtliche Vorgaben und soziale Standards angepasst werden können. Für die soziale Gestaltung von Algorithmen und algorithmischen Entscheidungssystemen hat das FST dreißig grundsätzliche (generische) Kriterien entwickelt und zur Diskussion gestellt. Auf diese Weise sollen Software-Systeme, die durch ständige neue Datenaufnahmen veränderte Entscheidungen treffen können, demokratisch und human ausgerichtet werden.

Diese Gestaltungsprozesse müssen einerseits durch neue Wege der betrieblichen Mitbestimmung durchgesetzt werden. Andererseits benötigt unsere politische Zivilgesellschaft verbindliche rechtliche Spielregeln, wie verankert und institutionell abgesichert werden kann, dass technische Systeme nicht die Oberhand über den Menschen, über die Bürgerin, über den Bürger gewinnen. Eine demokratische Gesellschaft muss gewährleisten, dass technische Innovationen als Assistenzsysteme wirken, aber nicht als Delegationssysteme anstelle des Menschen entscheiden. Der Mensch muss das Interventionsrecht besitzen. Entscheidungen über Menschen sind von Menschen zu treffen nicht von vermeintlich „selbstlernenden“ Software-Systemen.

Der Einsatz solcher algorithmischer Entscheidungssysteme in den Gesundheitswesen in den USA hat sehr deutlich gezeigt, dass nicht-gestaltete und gesellschaftlich nicht-kontrollierte Algorithmen vorhandene Vorurteile, Ausgrenzungen und Rassismen verstärken. Mangelhafte Aushandlungsprozesse zwischen Entwickelnden und Nutzenden (Spezifizierungen) befördern verdeckte oder offene Diskriminierung anstatt sie zu beseitigen. Auch für die gesellschaftliche Implementierung der Algorithmen und der algorithmischen Entscheidungssysteme gilt: Black lives matter.

 

FST für Gestaltungsdialog mit der Open Source-Community

Wenn es im Zuge der voranschreitenden „digitalen Transformation“ der Arbeitswelten zu einem wachsenden Einsatz sogenannter „selbstlernender“ Software kommt, wird der klassische gewerkschaftliche Technikgestaltungsdiskurs auf eine harte Probe gestellt.

Denn die Anpassung der ASS („Autonome Software-Systeme“), wie sie etwa auch in „Watson“ hinterlegt sind, verlangt von denen, die gestalten wollen, erhebliche zusätzliche Kenntnisse und Kompetenzen. Nicht nur eine neue Qualität der „vorausschauenden Arbeitsgestaltung“ ist unabdingbar. Vor allem muss ein aktualisierter Gestaltungsansatz, den Mut, das Erfahrungswissen und das IT-Wissen aufweisen, die Interessen und sozialen Standards direkt in die Spezifizierung der Algorithmen-Entwicklung einzubringen. (Siehe dazu in diesem Blog die Posts zum „mitbestimmten Algorithmus“ und zur Demokratisierung generischer Algorithmus-Prinzipien).

Kolleginnen und Kollegen in Betriebs- und Personalräten brauchen für diesen Weg Unterstützung und ermutigende Assistenz. Es bedarf eines klugen Wissenstransfers zwischen gewerkschaftlichen und außergewerkschaftlichen Frauen und Männern aus der freien Open Source-Szene, aus demokratischen Graswurzelbewegungen (wie etwa des Chaos Computer Clubs bzw. Teilen der IEEE) und aus den Netzwerken der offenen IT-Entwickler-Communities.

Das gewerkschaftliche Personennetzwerk „Forum Soziale Technikgestaltung“ hat angesichts dieses Hintergrundes die jüngste Konferenz „OPEN 2017“ in Stuttgart mit rund 300 IT-lerinnen und IT-lern für eine Dialogeinladung genutzt. Es solle unter dem Dach regionaler Netzwerke ein Gestaltungsdialog zwischen gewerkschaftlichen Communities mit den freien Open Source-Communities angestoßen bzw. intensiviert werden.

Besondere Gemeinsamkeiten der möglichen Dialog-Akteure liegen im Eintreten für Datenschutz und Datensicherheit, im Schutz der Privatheit und im Widerspruch gegen Datenmonopole im Netz. Nun gilt es, über Spielregeln für partizipative Demokratisierungsmöglichkeiten von Algorithmen nachzudenken.