Einladung zum Fachworkshop: Ethische und soziale Kriterien zur Gestaltung algorithmischer Steuerungs- und Entscheidungssysteme

Ein Dialog zwischen dem „Forum Soziale Technikgestaltung“ (FST), dem Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO und Cyber Valley anlässlich „Dreißig Jahre Forum Soziale Technikgestaltung“

Workshop am 27. Oktober 2021 von 14.30 Uhr bis 18.45 Uhr in den Räumen des Fraunhofer IAO in Stuttgart-Vaihingen

Seit langem arbeiten Wissenschaftlerinnen und Wissenschaftler an mathematisch-technischen Systemen, die die Arbeit des Menschen auf sogenannte „intelligente“ Weise effizienter gestalten und erleichtern sollen. Dabei entstehen auf der Basis von Maschinellem Lernen auch vielfältige Modelle oder Systeme, die unter dem Begriff „Künstliche Intelligenz“ zusammengefasst werden. Im Kern geht es dabei oft um die Frage, wie komplexe Analyseprozesse auf ein digitales algorithmisches System übertragen werden können und nach welchen mathematisierbaren Kriterien diese (Assistenz-)Systeme Entscheidungen treffen sollen.

Das gewerkschaftliche „Forum Soziale Technikgestaltung“ befasst sich seit dreißig Jahren mit der Humanisierung digital gestützter Arbeitswelten. Seit mehreren Jahren entwickelt das FST Kriterien zur Gestaltung algorithmischer Steuerungs- und Entscheidungssysteme. In dem Dialog-Fachworkshop soll der bisherige Stand der FST-Kriterien zur Diskussion gestellt und weiterentwickelt werden. Das FST spricht in Ergänzung zum Begriff „Assistenztechnik“ von der notwendigen Gestaltung der „Delegationstechnik“.

Das Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO entwickelt gemeinsam mit Unternehmen, Institutionen und Einrichtungen der öffentlichen Hand Strategien, Geschäftsmodelle und Lösungen für die digitale Transformation. Es ist mitverantwortlich für das KI-Fortschrittszentrum »Lernende Systeme«, das durch Technologietransfer die Lücke zwischen KI-Spitzenforschung und der breiten Anwendung in der produzierenden Industrie schließt.

Cyber Valley ist Europas größtes Forschungskonsortium im Bereich der künstlichen Intelligenz mit Partnern aus Wissenschaft und Industrie. Das Land Baden-Württemberg, die Max-Planck-Gesellschaft mit dem Max-Planck-Institut für Intelligente Systeme, die Universitäten Stuttgart und Tübingen sind u.a. die Gründungspartner dieser Initiative. Das Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO ist assoziiert mit Cyber Valley.

Ablauf

14.30 Uhr Begrüßung und Einführung
Ziele des Dialog-Workshops
Welf Schröter, Leiter des Forum Soziale Technikgestaltung beim DGB Baden-Württemberg
Dr. Matthias Tröndle, Cyber Valley, General Manager

14.45 Uhr Vortrag I
Ethische Anforderungen an die Gestaltung von KI-Technologien
PD Dr. Jessica Heesen, Forschungsschwerpunkt Medienethik und Informationstechnik (Leitung), Internationales Zentrum für Ethik in den Wissenschaften, Universität Tübingen

15.15 Uhr Rückfragen

15.30 Uhr Vortrag II
Soziale Kriterien für die Gestaltung algorithmischer Steuerungs- und Entscheidungssysteme zwischen Assistenz- und Delegationstechnik
Welf Schröter, Leiter des „Forum Soziale Technikgestaltung“, Mitbegründer der „Allianz Industrie 4.0 Baden-Württemberg“

16.00 Uhr Rückfragen

16.15 Uhr Kaffeepause

16.40 Uhr Vortrag III
Anforderungen an die Entwicklung von KI-Systemen
Dr. Matthias Peissner, Leiter Forschungsbereich Mensch-Technik-Interaktion, Fraunhofer IAO, Partner im Cyber Valley

17.10 Uhr Nachfragen

17.25 Uhr Vortrag IV
Die Gestaltung von KI-Systemen aus betriebsrätlicher Perspektive
Monika Heim, Festo SE & Co. KG, Betriebsrat Esslingen

17.55 Rückfragen

18.10 Uhr Moderierte Plenumsdiskussion der Vortragenden und Teilnehmenden
Moderation: Patrick Klügel, Cyber Valley, Public Engagement Manager

18.45 Uhr Ende der Veranstaltung

Eintritt frei. Anmeldung erforderlich bei: Welf Schröter schroeter@talheimer.de

 

Einladung zur Tagung für Betriebs- und Personalräte „Der demokratisierte Algorithmus“

Einladung zur Tagung „Der demokratisierte Algorithmus“ – 30 Jahre „Forum Soziale Technikgestaltung“ am 24. bis 25. November 2021 in der Evangelischen Akademie Bad Boll

Im Prozess der digitalen Veränderungen der Arbeitswelt müssen Perspektiven immer wieder neu überprüft werden. Die Fachtagung zum Jubiläum des Netzwerks „Forum Soziale Technikgestaltung“ bietet dazu sozialwissenschaftliche Expertise und reichlich Gelegenheit zur gemeinsamen Diskussion. Die Soziologin Prof. Dr. Sabine Pfeiffer zeigt im Eröffnungsvortrag, wie ökonomische Beweggründe die digitalen Veränderungen antreiben: „Digitalisierung als Distributivkraft – Über das Neue am digitalen Kapitalismus“. Welf Schröter analysiert in seinem Beitrag die Fragen: Wo stehen wir im Projekt „Der mitbestimmte Algorithmus“? Wie gelingt die partizipative Mitwirkung von Beschäftigten? Wie geht der Weg weiter zum „Demokratisierten Algorithmus“? Dr. Bettina-Johanna Krings vom Institut für Technikfolgenabschätzung und Systemanalyse vermittelt in ihrem Beitrag Einblicke aus einem aktuellen Projekt zu ethischen Kriterien bei der Gestaltung von „Künstlicher Intelligenz“. – Die Jubiläumstagung will vor allem Betriebs- und Personalräte zur Diskussion einladen und Impulse vermitteln, wie das Ziel einer mitbestimmten und demokratisierten Arbeitswelt vorangebracht wird.

Link zum Tagungsflyer und Link zur Programm-WebSite der Evang. Akademie Bad Boll

Programm

Mittwoch, 24. November 2021

13:00 Uhr Ankunft in der Evangelischen Akademie Bad Boll, Zimmerbezug, Willkommenskaffee

14:00 Uhr Einführung Auf dem Weg zum „demokratisierten Algorithmus“ – 30 Jahre „Forum Soziale Technikgestaltung“ – Partner der Evangelischen Akademie Bad Boll
Begrüßung durch Karl-Ulrich Gscheidle, Wirtschafts- und Sozialpfarrer Kirchlicher Dienst in der Arbeitswelt (KDA)

14:15 Uhr Vortrag Digitalisierung als Distributivkraft – Über das Neue am digitalen Kapitalismus
Prof. Dr. Sabine Pfeiffer, Lehrstuhl für Soziologie (Technik-Arbeit-Gesellschaft), Friedrich-Alexander-Universität Erlangen-Nürnberg

15:00 Uhr Rückfragen

15:15 Uhr Vortrag Zukunft der Arbeit und Erweiterung der Mitbestimmung: Das Projekt „Der mitbestimmte Algorithmus“ des „Forum Soziale Technikgestaltung“
Welf Schröter, Mitbegründer und Leiter des „Forum Soziale Technikgestaltung“, Mitbegründer der „Allianz 4.0 Baden-Württemberg“, Projekt PROTIS-BIT, Projekt „KARL“, Redaktion „Latenz“

16:00 Uhr Rückfragen

16:15 Uhr Kaffeepause

16:45 Uhr Parallele Arbeitsgruppen
Arbeitsgruppe 1: Digitaler Kapitalismus (Karl-Ulrich Gscheidle)
Arbeitsgruppe 2: Der mitbestimmte Algorithmus (Welf Schröter)

18:00 Uhr Abendessen

19:30 Uhr Erinnerungen an dreißig Jahre „Forum Soziale Technikgestaltung“
Im Gespräch mit Welf Schröter und den Gästen Ulrike Zenke (IG Metall Heidelberg, Mitbegründerin des Betriebsräte-Netzwerkes ZIMT) und Michael Schwemmle (damals Deutsche Postgewerkschaft, dann ver.di und langjähriger Geschäftsführer der Input Consulting). Moderation: Karl-Ulrich Gscheidle

Donnerstag, 25. November 2021

08:00 Uhr Morgenimpuls

08:20 Uhr Frühstück

09:00 Uhr Einführung in den Tag – Ergebnisse der Diskussionen vom Vortag
Karl-Ulrich Gscheidle, Welf Schröter

09:20 Uhr Ethische Kriterien zur Gestaltung der „Künstlichen Intelligenz“
Dr. Bettina-Johanna Krings, Karlsruher Institut für Technologie (KIT), Institut für Technikfolgenabschätzung und Systemanalyse (ITAS), Projekt „KARL“

09:50 Uhr Rückfragen

10:00 Uhr Parallele Arbeitsgruppen (Fortsetzung)

10:45 Uhr Kaffeepause

11:00 Uhr Fortsetzung der Arbeitsgruppen

11:45 Uhr Abschlussplenum – Ergebnisse der Tagung (Karl-Ulrich Gscheidle, Welf Schröter)

12:30 Uhr Mittagessen / Ende der Tagung

Bitte melden Sie sich bis spätestens 5. November 2021 an unter Link zur Anmeldung
Sie erhalten eine Anmeldebestätigung.

Gesamtpreis/Person: Bei Unterbringung im Einbettzimmer 130,00 €, bei Unterbringung im Zweibettzimmer 112,00 €. Ohne Übernachtung und Frühstück 63,00 €. In allen Preisen ist die gesetzliche Mehrwertsteuer enthalten. Kosten für nicht eingenommene Mahlzeiten werden nicht erstattet. Gäste ohne Übernachtung zahlen das Frühstück an der Rezeption.

 

Einladung zur Veranstaltung „KI zwischen Mythos und Realität“

Einladung zur Veranstaltung „KI zwischen Mythos und Realität: Gestaltungshorizonte und Gestaltungspotenziale für algorithmische Entscheidungssysteme in Unternehmen und betrieblichen Arbeitswelten – Workshop für betriebliche Anwenderinnen und Anwender“

Eine Veranstaltung der „Allianz Industrie 4.0 Baden-Württemberg“ in Zusammenarbeit mit dem Netzwerk „Forum Soziale Technikgestaltung“ (FST) und dem Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA sowie mit dem von der Hans-Böckler-Stiftung geförderten Projekt „PROTIS-BIT“ anlässlich des Jubiläums „30 Jahre Forum Soziale Technikgestaltung“ (1991–2021)

Termin: 19. Oktober 2021 von 14.00 Uhr bis 18.15 Uhr. Ort: Haus der Wirtschaft Stuttgart, Willi-Bleicher-Straße 19. Anfahrt: https://www.hausderwirtschaft.de/anfahrt

Wie können Sozialpartner die Einführung von „Künstlicher Intelligenz“ und algorithmischen Entscheidungssystemen im Betrieb gestalterisch voranbringen? Wie kann die Stärkung der Gestaltungskompetenz erleichtert werden? – Auf diese Fragen will der Workshop für betriebliche Anwenderinnen und Anwender tendenzielle Antworten aufbereiten. Im Mittelpunkt steht dabei ein Vorschlag des gewerkschaftsnahen „Forum Soziale Technikgestaltung“, der Kriterien für den betrieblichen Umgang mit „lernender“ bzw. sich selbst verändernder Software sowie Impulse für einen erfolgreichen moderierten Spezifikationsdialog enthält. Sie sind eingeladen zu einem offenen Dialog über innovatives Handlungswissen. Die Teilnahme ist kostenfrei. Link zur Anmeldung.

12.30 Uhr – 14.00 Uhr Imbiss und Get-together

14.00 Uhr
Begrüßung und Einführung
Prof. Dr.-Ing. Thomas Bauernhansl, Institutsleiter Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA
Dr. Marc-Daniel Moessinger, VDMA Baden-Württemberg, Projektleiter Allianz Industrie 4.0 Baden-Württemberg
Welf Schröter, Leiter des Forum Soziale Technikgestaltung

14.20 Uhr Vortrag
Hat die Maschine eine eigene Moral?
Prof. Dr. Peter G. Kirchschläger, Leiter des Instituts für Sozialethik ISE an der Universität Luzern

14.50 Uhr Vortrag
Arbeitsvermögen und algorithmische Entscheidungssysteme
Prof. Dr. Sabine Pfeiffer, Institut für Soziologie, Lehrstuhl für Soziologie mit dem Schwerpunkt Technik – Arbeit – Gesellschaft, Friedrich-Alexander-Universität Erlangen-Nürnberg

15.20 Uhr Rückfragen zu beiden Vorträgen

15.40 Uhr Kaffeepause

16.10 Uhr Zur Diskussion gestellt
Gestaltungsmöglichkeiten algorithmischer Entscheidungssysteme im Unternehmen
Welf Schröter, Leiter des Forum Soziale Technikgestaltung, Mitbegründer der „Allianz Industrie 4.0 Baden-Württemberg“

16.40 Uhr Replik I
Potenziale und Grenzen des maschinellen Lernens in produzierenden Unternehmen
Prof. Dr.-Ing. Marco Huber, Leiter des Zentrums für Cyber Cognitive Intelligence CCI, Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA

17.10 Uhr Replik II
Erfahrungen aus der Unternehmenspraxis
Prof. Dr. Rupert Felder, Leiter Personal Heidelberger Druckmaschinen AG

17.40 Uhr Moderierte Diskussion

18.05 Uhr Zusammenfassung und Ausblick
Lukas Schleicher, VDMA Baden-Württemberg, Projektmanager Künstliche Intelligenz und Cyber-Security der Koordinierungsstelle Allianz Industrie 4.0 Baden-Württemberg

18.15 Uhr Ende der Veranstaltung und Get-together

Die Moderation der Veranstaltung liegt in den Händen von Lukas Schleicher und Welf Schröter.

Die Veranstaltung wird zunächst als Präsenzveranstaltung in den Räumen des Hauses der Wirtschaft Stuttgart vorbereitet. Sollten sich bis zum 5. Oktober die Pandemie-Gefahren derart erhöhen, dass eine Durchführung vor Ort unverantwortlich wäre, findet die Veranstaltung online statt. Es wird dann ein Zugangslink verschickt.

Link zur Anmeldung.

 

„Maschinenethik“ (Teil I): Annäherungen an einen schillernden und widersprüchlichen Begriff

Wer sich mit der Virtualisierung und Digitalisierung der Arbeitswelten befasst, stolpert schnell über die Erkenntnis, dass es neben den handfesten Veränderungen für arbeitende Menschen auch um Drittmittelmärkte, um Strategien zur Erlangung von staatlichen Fördermitteln und um zeitweise substanzlose Marketingauftritte geht. Dieses Auseinanderklaffen von realen Notwendigkeiten und bloßen Akquise-Shows begegnet den kundigen Betrachtenden nun auch auf der Bühne des Wortes „Maschinenethik“.

Wer sich unkundig in die Sprachwelten der „Maschinenethik“ vorwagt, zuckt beeindruckt zurück. Da treten wissenschaftliche Teams auf, die sich mit vermeintlich spektakulären Erkenntnissen aufmachen, Fördermittel aus den staatlichen Händen auf europäischer, Bundes- oder Landes-Ebene zu ergattern. Da werden „Wirklichkeiten“ beschrieben, die keine sind, um Aufmerksamkeit zu erheischen. So schreibt ein akademischer Kopf, dass das zentrale Zukunftsthema der Digitalisierung und Virtualisierung die Herausforderung sei, dass Maschinen nun Ethik und Moral besitzen und ausführen könnten.

Die Maschine wird zum bewusstseinsfähigen Subjekt ernannt, das durch Datensammeln und Auswertungen Bewusstsein, Reflexionskompetenz, Ethik und Moral erlangen könnte. Die vermeintliche „Künstliche Intelligenz“ verfügt in solchen Beschreibungen alsbald über „Künstliche Ethik“ oder noch besser – wie ein nach Aufmerksamkeit strebender Ethiker schreibt – über „Künstliche Tugend“.

Klar, wenn man ein solches Szenario den zuständigen Vergabestellen der Ministerien einreden kann, hat man den sechs- bis siebenstelligen Betrag schon gewonnen. Wer wollte angesichts solcher Dämonen an der Wand der Zukunft nicht den Steuer-Geldbeutel für kulturelle Prävention öffnen.

Bei allem Respekt vor Frauen und Männern aus Ingenieur- und Informationswissenschaften muss man laut „Halt“ rufen! Ein solches Verständnis und Szenario von „Maschinenethik“ ist schlicht inakzeptabel. Weder kann ein physischer Blechhaufen noch ein digitaler Software-Haufen im aufgeklärt sozialwissenschaftlichen, philosophischen und menschenrechtlichen Sinne Bewusstsein im Sinne des Humanum erreichen. Ein solches Gerede von „Maschinenethik“ will Aufmerksamkeit, will vorsätzlich verunsichern und den Golem herbeireden.

Betrachtet man die technologische Wirklichkeit des Status quo und die Arbeiten in Laboren, dann lässt sich zweifellos feststellen, dass hier Gigantisches geleistet wurde. Brillante Mathematik und hervorragende Informatik haben Software-Systeme (allen voran „Autonome Software-Systeme“) hervorgebracht, die in glänzender Weise zur Verfahrens- und Prozessteuerung geeignet sind. Diese Systeme spiegeln dem Menschen vor, dass die Software „denken“ könnte und der Mensch verhält sich entsprechend, um diese Projektion zu vervollkommnen.

Das Problem sitzt vor (!) dem Bildschirm. Der Mensch hält das Agieren der Software für Denken und orientiert sein eigenes Verhalten gemäß dieser Projektion. Nicht das nicht vorhandene Bewusstsein in (!) der Maschine ist zu hinterfragen, sondern das Naive im Bewusstsein des Menschen stellt die Herausforderung dar.

Gerade für einen konstruktiven und innovativen Umgang mit neuen digitalen Lösungen sollten wir uns nicht in die Sackgassen der Hollywood-Filme drängen lassen: Sogenannte „Künstliche Intelligenz“ mit Bewusstsein gibt es nicht. Auch nicht in naher Zukunft. Was es gibt, sind aufregend gute mathematische Anwendungen mit enormen Potenzialen. Diese gilt es, engagiert demokratisch und sozial zu gestalten. Lassen wir uns nicht von vermeintlichen „Maschinen-Ethikern“ davon abhalten.

 

„Maschinenethik“ (Teil II): Der Wandel des Menschenbildes

Wie oben beschrieben wollen die Anhänger der „Maschinenethik“ in Geräten und in der Software menschenähnliches reflexionsfähiges Bewusstsein entdeckt haben. Diese Annahme fußt auf einer Voraussetzung, die es dringend zu hinterfragen gilt. Wenn Maschinen Ethik und Bewusstsein besitzen, welches Verständnis von Ethik und Bewusstsein wird dabei zugrunde gelegt?

Wir kennen dieses Phänomen aus der Verbindung von Robotik-Entwicklung und Kinderpsychologie bzw. Kinderpädagogik. Die Forschungsteams, die menschenähnlichen (humanoiden) Robotern Bewegungen beibringen, greifen dabei auf biografisch-soziale Lernprozesse von Kleinkindern zurück. Wie lernen Kinder? Wie greifen und tasten sie? Wie wiederholen sie Bewegungen? Bei diesem Ansatz reduzieren die Robotik-Teams die Verhaltensmuster der Kleinkinder, um die abstrahierten Vorgänge technisch nachbilden zu können. Damit Roboter „lernen“ können, muss das Verhalten eines Kindes vereinfacht und reduziert werden. Solange sich alle Beteiligten darüber im Klaren sind und wissen, dass das tatsächliche und wirkliche  Verhalten von Kindern viel komplexer ist, besteht kein Risiko für Ideologisierungen.

Die Debatte um „Maschinenethik“ ist mit der Adaption des Verhaltens von Kindern zur Implementierung in Roboter methodisch vergleichbar. Zugespitzt formuliert bedeutet dies: Um in einem mathematisierten Software-Haufen „Bewusstsein“ zu entdecken, muss das Verständnis von Bewusstsein so heruntergefahren und reduziert werden, dass es technisch nachbildbar wird. Hinter der Frage, ob Maschinen eine Ethik und eine  Moral besitzen können, verbirgt sich die gravierende Frage, wie sich das Menschenbild und das Humanum anpassen müssen, um für solch eine „Maschinenethik“ passend zu sein.

Ein gewisser Teil derjenigen, die sich diesem Typ der „Maschinenethik“ verschrieben haben, arbeitet nicht an der Maschine oder an der Software sondern am Wandel des Menschenbildes. Die exzessivste Form davon stellen die „Transhumanisten“ dar, die unter dem Vorwand der biologischen Evolution die Verknüpfung von Organischem und Digitalem anstreben. Letztlich soll das ewige Leben dadurch erreicht werden, dass ein digitalisiertes menschliches Gehirn mit Bewusstsein in einer Hardware fort“lebt“.
In der Bundesrepublik haben bestimmte „Ethiker“ extra eine Partei gegründet. Ihre – vor allem männlichen – Vertreter versuchen, über vorhandene hiesige Organisationen und über honorige Stiftungen ihre ideologisierten, teilweise aus den USA kopierten Konzepte zu verbreiten.

Einige der amerikanischen Transhumanisten setzen für das Menschenbild der Zukunft drei zentrale Begriffe: männlich, weiß, digital. Dieser Typ von „Maschinenethik“ revidiert das Menschenbild der UN-Charta der Menschenrechte.

 

„Maschinenethik“ (Teil III): Ein Versuch zur Rettung der interdisziplinären Ethik

Nach zwei deutlichen Kritiken an der aufgebrochenen Debatte über sogenannte „Maschinenethik“ soll hier aber auch ein begrüßenswerter Denkansatz gewürdigt werden. Kluge Frauen und Männer aus Sozialwissenschaften, Informatik, Neurobiologie, Philosophie und Ethik greifen das ethische Verhalten von Personen auf, die Software entwickeln und Software anwenden. Sie benutzen dabei verwirrender Weise ebenfalls das Wort „Maschinenethik“, jedoch in einem völlig anderen Sinne.

Diese Gruppe spricht sich zu Recht dafür aus, dass die Softwareentwicklung wie auch die Softwareanwendung nach ethischen und humanen Kriterien erfolgen sollen. Sie sprechen daher von der ethischen Verantwortung der Entwickelnden und der Anwendenden für die Mensch-Technik-Interaktion. Sie reden nicht von der Ethik in der Maschine sondern vom ethischen Handeln des Menschen mit Hilfe der Technik gegenüber anderen Menschen. Ethik wird dem Menschen, nicht der Maschine, nicht der Software zugeordnet.

Dieser Ansatz ist außerordentlich begrüßenswert und folgt der Tradition problemorientierter Technikfolgenforschung. Soziale, ethische und humane Technikgestaltung setzt vorausschauend bereits in der Phase der Technikkonzeption (Technikgenese) an. Sie betont die „Handlungsträgerschaft Mensch“ und lehnt eine nicht-gestaltete „Handlungsträgerschaft Software-Systeme“ aus ethischen Gründen grundsätzlich ab.

Die Kontroverse um „Maschinenethik“ bedarf wie gezeigt sowohl der eindeutigen Differenzierung in unterschiedliche Ansätze wie auch der klaren, tendenzkundigen, inhaltlichen Positionierung zugunsten des Humanum.

 

Digitalisierung für alle

„Bringt die Einführung von E-Government größere Spielräume für bürgerschaftliche Beteiligungen in den Kommunen?“ – Diese Frage diskutierte der Kongress „Digitalisierung für alle“ am 5. und 6. Juni 2018 in der Evangelischen Akademie Bad Boll. Die Teilnehmenden der Veranstaltung sprachen sich für einen menschenzentrierten Ansatz aus, statt einer nur technikgetriebenen Vorgehensweise.

„Die Digitalisierung muss in die Demokratie eingebettet werden und nicht umgekehrt“, erklärte das Netzwerk „Sozialer Zusammenhalt in digitaler Lebenswelt“, das zu dem öffentlichen Ratschlag eingeladen hatte. Der Kongress setzte sich wenige Tage vor der Verabschiedung des neuen E-Government-Gesetzes im Landtag für mehr Bürgerpartizipation auf kommunaler Ebene ein. Das Netzwerk „Sozialer Zusammenhalt in digitaler Lebenswelt“ wurde von zivilgesellschaftlichen Gruppen, kirchlichen Verbänden, politischen Stiftungen und Gewerkschaften gegründet.

Der Mensch müsse im Zentrum stehen. Technik habe dienende Funktionen. Mit dieser Haltung beriet der Kongress Empfehlungen für mehr Bürgerbeteiligung, soziale Innovationen im Übergang Schule-Beruf, Schutz der Privatsphäre und Inklusion von Menschen mit Beeinträchtigungen. Das Netzwerk wird seine Arbeit fortsetzen.

„Mit unserem Netzwerk wollen wir dem Prozess der Digitalisierung mehr soziale, ethische und solidarische Grundwerte unterlegen. Unsere Gesellschaft braucht nicht eine technik- oder nur marktzentrierte Umsetzung der digitalen Transformation sondern einen nachhaltigen Weg, der allen Zugang und Zugänglichkeit verschafft.“ Digitalisierung gelinge dann, wenn sie auf Demokratie, Privatheitsschutz, Integration und Inklusion basiere. „Wir wollen mehr Mitbestimmung durch Bürgerinnen und Bürger.“

Die digitale Transformation der Wirtschafts- und Arbeitswelten verändere das Verhältnis von Mensch und Technik: „Technik muss dem Menschen dienen. Der Mensch darf nicht der bloße Assistent digitaler Technik werden. Eine durch Digitalisierung und Virtualisierung sich wandelnde Zivilgesellschaft benötigt einen öffentlichen und beteiligungsorientierten Diskurs über moderne Ethik und die Stellung des Menschen in technikgestützten Lebenswelten.“

Das Netzwerk setze sich daher für die stärkere Beteiligung von Bürgerinnen und Bürgern bei der Ausgestaltung des Wandels ein: „Um die Vorteile der Digitalisierung für die Gesellschaft absichern zu können, brauchen wir alle eine Stärkung unseres Rechts auf informationelle Selbstbestimmung, einen intensiveren Schutz der Privatheit, einen umfassenden Daten- und Identitätsschutz, denn dieser Schutz der Privatheit ist ein wesentlicher Baustein des Fundaments unserer Demokratie.“

 

„Hinter diesen Augen sitzt kein Ich“

Wer kennt nicht die Bilder und Szenen, wenn auf Technologiemessen ein begeisterter Mensch dem „süßen“ kleinen Roboter „Pepper“ über den Kopf streicht, ihm wie einem Kind in die „Augen“ schaut, als ob dieses vermeintliche Geschöpf dann dankend zurücklächelt. Der Mensch sucht Interaktion und projiziert Interaktionsfähigkeit auf den mobilen Blechhaufen.

Einem solchen Menschen gab der nachdenkliche Technikethiker Karsten Weber einen ernüchternden Rat mit auf den Weg: „Hinter diesen Augen sitzt kein Ich.“ Mit dieser Äußerung wollte der Wissenschaftler aus Regensburg jenen widersprechen, die in der momentanen Roboterentwicklung schon Maschinen „mit Bewusstsein“ zu erkennen glaubten. Davon sei man mehr als weit entfernt, wenn dieses Ziel überhaupt je erreicht werden könnte.

Die Projektion menschlicher Eigenschaften auf die Maschinen sei unangebracht und falsch. Weder menschenähnliche Roboter noch selbst fahrende Autos besäßen jene „Autonomie“, die es ihnen erlauben würde, selbst ethische bzw. normative Regeln zu setzen. Dies sei und bleibe Aufgabe des Menschen.

Auf einer Tagung zum Thema „Künstliche Intelligenz“ der Integrata-Stiftung und des Tübinger Weltethos-Institutes kritisierte Weber den unverantwortlichen Umgang mit schwerwiegenden moralischen und ethischen Fragen bei der Entwicklung der KI. Die „Anthropomorphisierung von Maschinen“ (Übertragung menschlicher Eigenschaften auf Maschinen) sei ein gravierender Fehlschluss.

Der Technikethiker verwies wissenschaftlich methodisch präzise auf die Erfahrungen mit Technikentwicklungen der letzten Jahrzehnte. Technik sei nie neutral, sie sei immer wertebasiert, wertegebunden und wertebeladen. Dies bedeute, dass bei der Konzipierung technischer Innovationen immer bewusst oder unbewusst normative Überzeugungen, Werte, Vorurteile, Interessen in die Technikentwicklung einfließen. Dies schließe ein, dass immer wieder ein Hinterfragen vorhandener Technik stattfinden müsse, da sich parallel zur Technikentwicklung auch gesellschaftliche Werte und Lebensstile (zum Beispiel Geschlechterrollen) ständig veränderten.

Diese Wertegebundenheit technischer Konzeptionen müsse – so die Diskussion – gerade bei einem besonders empfindlichen Teil der KI, nämlich der Nutzung von „selbstlernenden Software-Systemen“, deutlichere Berücksichtigung finden. Denn auch hier gilt: Hinter diesen Algorithmen sitzt kein Ich.