FST für Gestaltungsdialog mit der Open Source-Community

Wenn es im Zuge der voranschreitenden „digitalen Transformation“ der Arbeitswelten zu einem wachsenden Einsatz sogenannter „selbstlernender“ Software kommt, wird der klassische gewerkschaftliche Technikgestaltungsdiskurs auf eine harte Probe gestellt.

Denn die Anpassung der ASS („Autonome Software-Systeme“), wie sie etwa auch in „Watson“ hinterlegt sind, verlangt von denen, die gestalten wollen, erhebliche zusätzliche Kenntnisse und Kompetenzen. Nicht nur eine neue Qualität der „vorausschauenden Arbeitsgestaltung“ ist unabdingbar. Vor allem muss ein aktualisierter Gestaltungsansatz, den Mut, das Erfahrungswissen und das IT-Wissen aufweisen, die Interessen und sozialen Standards direkt in die Spezifizierung der Algorithmen-Entwicklung einzubringen. (Siehe dazu in diesem Blog die Posts zum „mitbestimmten Algorithmus“ und zur Demokratisierung generischer Algorithmus-Prinzipien).

Kolleginnen und Kollegen in Betriebs- und Personalräten brauchen für diesen Weg Unterstützung und ermutigende Assistenz. Es bedarf eines klugen Wissenstransfers zwischen gewerkschaftlichen und außergewerkschaftlichen Frauen und Männern aus der freien Open Source-Szene, aus demokratischen Graswurzelbewegungen (wie etwa des Chaos Computer Clubs bzw. Teilen der IEEE) und aus den Netzwerken der offenen IT-Entwickler-Communities.

Das gewerkschaftliche Personennetzwerk „Forum Soziale Technikgestaltung“ hat angesichts dieses Hintergrundes die jüngste Konferenz „OPEN 2017“ in Stuttgart mit rund 300 IT-lerinnen und IT-lern für eine Dialogeinladung genutzt. Es solle unter dem Dach regionaler Netzwerke ein Gestaltungsdialog zwischen gewerkschaftlichen Communities mit den freien Open Source-Communities angestoßen bzw. intensiviert werden.

Besondere Gemeinsamkeiten der möglichen Dialog-Akteure liegen im Eintreten für Datenschutz und Datensicherheit, im Schutz der Privatheit und im Widerspruch gegen Datenmonopole im Netz. Nun gilt es, über Spielregeln für partizipative Demokratisierungsmöglichkeiten von Algorithmen nachzudenken.

 

„Hinter diesen Augen sitzt kein Ich“

Wer kennt nicht die Bilder und Szenen, wenn auf Technologiemessen ein begeisterter Mensch dem „süßen“ kleinen Roboter „Pepper“ über den Kopf streicht, ihm wie einem Kind in die „Augen“ schaut, als ob dieses vermeintliche Geschöpf dann dankend zurücklächelt. Der Mensch sucht Interaktion und projiziert Interaktionsfähigkeit auf den mobilen Blechhaufen.

Einem solchen Menschen gab der nachdenkliche Technikethiker Karsten Weber einen ernüchternden Rat mit auf den Weg: „Hinter diesen Augen sitzt kein Ich.“ Mit dieser Äußerung wollte der Wissenschaftler aus Regensburg jenen widersprechen, die in der momentanen Roboterentwicklung schon Maschinen „mit Bewusstsein“ zu erkennen glaubten. Davon sei man mehr als weit entfernt, wenn dieses Ziel überhaupt je erreicht werden könnte.

Die Projektion menschlicher Eigenschaften auf die Maschinen sei unangebracht und falsch. Weder menschenähnliche Roboter noch selbst fahrende Autos besäßen jene „Autonomie“, die es ihnen erlauben würde, selbst ethische bzw. normative Regeln zu setzen. Dies sei und bleibe Aufgabe des Menschen.

Auf einer Tagung zum Thema „Künstliche Intelligenz“ der Integrata-Stiftung und des Tübinger Weltethos-Institutes kritisierte Weber den unverantwortlichen Umgang mit schwerwiegenden moralischen und ethischen Fragen bei der Entwicklung der KI. Die „Anthropomorphisierung von Maschinen“ (Übertragung menschlicher Eigenschaften auf Maschinen) sei ein gravierender Fehlschluss.

Der Technikethiker verwies wissenschaftlich methodisch präzise auf die Erfahrungen mit Technikentwicklungen der letzten Jahrzehnte. Technik sei nie neutral, sie sei immer wertebasiert, wertegebunden und wertebeladen. Dies bedeute, dass bei der Konzipierung technischer Innovationen immer bewusst oder unbewusst normative Überzeugungen, Werte, Vorurteile, Interessen in die Technikentwicklung einfließen. Dies schließe ein, dass immer wieder ein Hinterfragen vorhandener Technik stattfinden müsse, da sich parallel zur Technikentwicklung auch gesellschaftliche Werte und Lebensstile (zum Beispiel Geschlechterrollen) ständig veränderten.

Diese Wertegebundenheit technischer Konzeptionen müsse – so die Diskussion – gerade bei einem besonders empfindlichen Teil der KI, nämlich der Nutzung von „selbstlernenden Software-Systemen“, deutlichere Berücksichtigung finden. Denn auch hier gilt: Hinter diesen Algorithmen sitzt kein Ich.

 

Für eine gesellschaftlich verantwortete Dezentralisierung der Künstlichen Intelligenz

Für eine dezentrale regionalisierte Nutzung kluger KI-Anwendungen und gegen deren Zentralisierung durch Internetgroßkonzerne spricht sich der amerikanische Kritiker Evgeny Morozov aus. Er warnt in einem Interview für die Zeitschrift „Wirtschaftswoche“ (45/2017) vor einer Monopolisierung selbstlernender Software-Systeme in der Hand weniger Eigner von immensen Kapitalsummen und der sich dabei vollziehenden Sammlung riesiger Datenberge, die immer mehr dazu geeignet seien, menschliches Verhalten zu beeinflussen und zu steuern.

Eine Hinwendung zu dezentralen Datenerfassungen und Datensammlungen auf der Ebene von regionalen gemeinschaftlichen und gesellschaftlichen Akteursverbünden könne die Monopolbildung aufhalten. Die Daten dürften nicht dem Silicon Valley gehören. Daten müssten in der Hand der Betroffenen in der Region bleiben.

Morozov sieht jedoch erheblichen Beschleunigungsbedarf bei regionalen Politiken, Parlamenten und der Zivilgesellschaft. Wenn sich die Gegenkraft zur Monopolbildung nicht innerhalb der nächsten fünf bis zehn Jahre durchsetzt, sei der Kampf auf Dauer endgültig verloren. Für Morozov – und nicht nur für ihn – geht es um die Demokratisierung unserer Daten.