Menu

Skip to content
blog-zukunft-der-arbeit.de
  • Startseite
  • Ziele des Blogs
  • Ziele des Forums
  • Moderation
  • Publikationen

blog-zukunft-der-arbeit.de

algorithmische Entscheidungssysteme Algorithmus alternierende Telearbeit Arbeit 4.0 Arbeitsschutz Assistenz Assistenztechnik Autonome Software-Systeme Betriebsrat Betriebsräte Betriebsvereinbarung CPS Datenschutz Delegationstechnik Demokratie Der "mitbestimmte" Algorithmus Digitale Transformation Digitalisierung Echtzeit Erfahrungswissen Ethik Forum Soziale Technikgestaltung Gestaltung Gestaltungskompetenz Gesundheitsschutz Gewerkschaften HomeOffice Humanisierung Industrie 4.0 Innovation Komplexität Künstliche Intelligenz Mitbestimmung mobiles Arbeiten Nachholende Digitalisierung Personalrat Personalräte PROTIS-BIT Robotik Selbstbestimmung Selbstlernende Systeme Technikgestaltung Virtualisierung Vorausschauende Arbeitsgestaltung Wertschöpfungskette

  • Kontakt
  • Impressum / Datenschutz
  • Anmelden / Registrieren

Schlagwort: Künstliche Intelligenz

HomeOffice-Tipp 5: Wenn das HomeOffice unter die Kontrolle sogenannter „intelligenter“ Software gerät

Posted on September 13, 2020 by Welf Schroeter

Derzeit ist in Zeitungen häufig zu lesen, dass das HomeOffice etwas mit „Künstlicher Intelligenz“ zu tun habe. Dies ist nicht der Fall. „Alternierende Telearbeit“ oder „Mobiles Arbeiten“ sind Organisationsformen von Arbeit. Es sind aber keine Technologien. Dennoch kann es sein, dass ein „Homeworker“ im Rahmen eines Arbeitsablaufes plötzlich im Netz mit einer Software in Berührung kommt, die nicht zum HomeOffice gehört, aber möglicherweise in das HomeOffice von außen eingreifen will. Dies kann eine im Netz frei flottierende Schadenssoftware (Malware) sein, die im heimischen Rechner schädliche Viren hinterlassen will, um den heimischen Rechner von außen zu „kapern“ und fernzusteuern. Dies gehört alles zum großen Kapitel „Security“, also technische Datensicherheit. Zweifellos sollte man, bevor man seinen HomeOffice-Rechner in Gang setzt, Antivirensoftware und Daten-Backup-Möglichkeiten vorbereitet haben.

Ein völlig anderer Vorgang ist es aber, wenn ein Arbeitgeber unzulässiger Weise sogenannte „intelligente“ Software einsetzt, um die Leistungen und das Leistungsprofil der Homeworker zu überwachen, um heimliche Rankings der MitarbeiterInnen gegeneinander zu praktizieren etc. Solche Vorgehensweisen sind in der Regel rechtswidrig und sollten umgehend dem Betriebsrat bzw. dem Personalrat gemeldet werden.

Aus der Perspektive der Technikentwicklung ist zu erkennen, dass sich HomeOffices auch flexibel und für gewisse Zeiten zu wechselnden Call-Center-Einrichtungen zusammenschalten lassen. Wenn beispielsweise eine Firma pro Tag enorm viele Anrufe erhält, die weit über die Belastbarkeit des Telefonservice hinausgeht, könnte eine Software die eingehenden Anrufe so umverteilen, dass in Spitzenzeiten bedarfsorientiert neue Telefonplätze hinzugenommen werden. Die anrufende Person erkennt dabei nicht, dass sie in einem HomeOffice gelandet ist. Sie denkt, sie sei in der Firma, da sie ja die Firmennummer gewählt habe. Zur Steuerung eines solchen virtuellen „atmenden“ Call Centers könnte Software genutzt werden, die Laien womöglich als „Künstliche Intelligenz“ bezeichnen. Es ist aber nur eine gut gemachte mathematische Techniklösung. Mit „Intelligenz“ hat dies nichts zu tun. Mit dem Vorhaben eines solchen „atmenden“ Call Centers muss vor dessen Einführung bzw. Aktivierung die Beschäftigtenvertretung befasst worden sein. Hier greift die Mitbestimmung.

Am Horizont ist zu erkennen, dass für die Organisation der Arbeitsabläufe und für die Steuerung der Arbeitsprozesse auch neue Typen von Software in Nutzung kommen werden. Diese neue Software ist eine besonders mathematisch qualifizierte Art, die von ihren EntwicklerInnen fälschlicherweise als „denkend“ oder „lernend“ bezeichnet werden. Diese Software ist aber nur Mathematik. Ihre Besonderheit liegt darin, dass sie Datenverarbeitung mit Entscheidungsprozessen kombiniert. Sie kann anstelle des Menschen rechtsverbindliche Entscheidungen treffen. Das Forum Soziale Technikgestaltung hat als Unterstützung für Betriebs- und Personalräte das Projekt „Der mitbestimmte Algorithmus“ gestartet. Mit klaren Zulassungskriterien soll erreicht werden, dass solche Systeme zwar in vereinbarter Form Entscheidungen über Sachen (Material, Energie etc.) nicht aber über Menschen treffen können. Das FSt will die Demokratisierung solcher „algorithmischer Entscheidungssysteme“.

Lesetipp: Welf Schröter: Der mitbestimmte Algorithmus. Arbeitsweltliche Kriterien zur sozialen Gestaltung von Algorithmen und algorithmischen Entscheidungssystemen. In: Welf Schröter (Hg.): Der mitbestimmte Algorithmus. Gestaltungskompetenz für den Wandel der Arbeit. Oktober 2019, S. 101–150. ISBN 978-3-89376-181-4.

 

Posted in Allgemein | Tagged algorithmische Entscheidungssysteme alternierende Telearbeit Betriebsrat Call Center Datensicherheit Der "mitbestimmte" Algorithmus Forum Soziale Technikgestaltung HomeOffice Künstliche Intelligenz Malware mobiles Arbeiten Personalrat Ranking Überwachung Viren virtuelles Call Center | Leave a comment

Digital alt oder digital neu?

Posted on März 15, 2020 by Welf Schroeter

Nicht selten kommt uns das Thema der Digitalisierung bzw. der digitalen Transformation in seinem gestrigen oder eher noch vorgestrigen Gewande entgegen. Themen wie HomeOffice, Mobiles Arbeiten oder elektronische Lernplattformen werden uns als neue digitale Revolution oder gar als „Vier-Null“-Welten erläutert. Das einfache Bedienen eines Smartphones will schon „Künstliche Intelligenz“ sein. Wir lassen uns zu leicht in bunte Marketing-Bühnen von Technik-Verkäufern locken und glauben sodann, wir seien „vorne“. Doch weit gefehlt.

Wir sind zunächst einmal Gäste im Interregio-Zauber dessen, was wir lieber einen Prozess der „Nachholenden Digitalisierung“ nennen sollten. In Betrieben, Dienstleistungszusammenhängen, Verwaltungen, Schulen und Verbänden holen wir oftmals nach, was technologisch schon fünfzehn bis zwanzig oder gar fünfundzwanzig Jahre alt ist. Lernplattformen, mobile Endgeräte, mobiles Arbeiten und Arbeiten zuhause waren Schlüsselthemen der zweiten Hälfte der neunziger Jahre.

Doch viele Akteure wollten damals davon kaum etwas wissen. Heute wird auf den Zug aufgesprungen, um die Hüte von damals als das aktuell Neue zu präsentieren. Wir sollten prüfen, was ist wirklich neu und was ist nur eine unerledigte Hausaufgabe der letzten beiden Jahrzehnte.

 

Posted in Allgemein | Tagged Digitalisierung Künstliche Intelligenz mobiles Arbeiten Nachholende Digitalisierung Transformation | Leave a comment

„Der mitbestimmte Algorithmus“ – Ein Buch mit Diskussionsergebnissen aus dem Forum Soziale Technikgestaltung

Posted on Januar 10, 2020 by Welf Schroeter

Im Denken einer konstruktiven Technikgestaltung liefert dieses Buch Einblicke in den Prozess der partizipativen Einführung neuer Technologien. Aus der Perspektive von Beschäftigten, Betriebs- und Personalräten sowie aus sozialwissenschaftlicher Sicht stellen die Autorinnen und Autoren eine Werkstatt-Zwischenbilanz zum Stand der Themen Plattformarbeitswelten, Algorithmen, algorithmische Entscheidungsprozesse und zum „mitbestimmten Algorithmus“ (Schröter) vor. Es geht um eine andere Annäherung an die Zukunft der Arbeit und die Arbeit der Zukunft. Dazu schlug das Netzwerk „Forum Soziale Technikgestaltung“ (FST) bereits im Jahr 2015 das Konzept eines „mitbestimmten Algorithmus“ vor. Nun geht es nicht mehr nur um den „Code“ sondern um die Demokratisierung des algorithmischen Entscheidungssystems als Ganzes.

Die bisherige Debatte über einen Aufbau von Gestaltungskompetenz für die demokratische Formierung „autonomer“ und „selbstlernender“ Software-Systeme erbrachte eine Reihe von grundsätzlichen (generischen) Kriterien für die zulässige Implementierung von neuer „Delegationstechnik“, die den Anspruch erhebt, an Stelle des Menschen rechtsverbindliche Entscheidungen in Echtzeit zu treffen. Dies überschreitet die bisherigen Vorstellungen einer „Assistenztechnik“. Die Autorinnen und Autoren des Bandes bringen Fachkenntnisse und Erfahrungen aus unterschiedlichen Arbeitswelten ein.

Die Texte zeigen Zusammenhänge zwischen Geschäftsmodellen und dem Einsatz der sogenannten „Künstlichen Intelligenz“ auf, beleuchten den Einsatz von Algorithmen in Fertigung und Verwaltung, beschreiben „Algorithmus-Kompetenzen“ und geben den Beschäftigtenvertretungen dreißig Kriterien zur Gestaltung algorithmischer Entscheidungssysteme an die Hand. Von sozialwissenschaftlicher Seite werden neue Plattformarbeitswelten wie externes und internes Crowdworking analysiert. Betriebsräte und Personalräte legen ihre Erfahrungen und Kenntnisse im Hinblick auf verrechtlichte Vereinbarungen zum Technik-Einsatz vor. Sie offenbaren die erworbene Qualität von Gestaltungskompetenz. Der vorliegende Band lädt zur Kontroverse und zu weiterer Vernetzung ein.

Klaus Kornwachs (Nicht vor der KI, vor den Geschäftsmodellen müssen wir uns fürchten), Oleg Cernavin (Algorithmus-Kompetenzen. Grundlage für reflexives und kritisches KI-Bewusstsein), Jan Etscheid, Jörn von Lucke (Anregungen für einen sozialverträglichen Einsatz von künstlicher Intelligenz im öffentlichen Sektor), Welf Schröter (Der mitbestimmte Algorithmus. Arbeitsweltliche Kriterien zur sozialen Gestaltung von Algorithmen und algorithmischen Entscheidungssystemen), Benedikt Simmert, Karen Eilers, Jan Marco Leimeister (Internet Crowd Work an der Schnittstelle sozialer und technischer Elemente der digitalen Arbeitsorganisation), Hannah Ulbrich, Marco Wedel (Forschungsprojekte als Experimentierräume für die Digitalisierung), Bernd Schneider, Bernhard Müller-Klinke, Katharina Parth (Digitalisierung in der Arbeitswelt. Neue Handlungsfelder für Belegschaftsvertreter), Andreas Otte, Welf Schröter in Zusammenarbeit mit Ingo Breite, Frank Gerth, Sylvia Laur, Volker Ost, Can Sekertekin, Andreas Tabor (Lebende Konzernbetriebsvereinbarung als soziale Innovation. Internes Crowdsourcing in der GASAG-Gruppe. Bedeutung – Bewertung – Vollständiger Wortlaut der KBV), Markus Freitag, Claudia Häussler, Chris Purz, Welf Schröter (Chance auf einen geordneten Zukunftsprozess. Gesamtpersonalrat (GPR) überreicht OB Kuhn den Entwurf einer „Lernenden Rahmen- und Zukunfts-Dienstvereinbarung IT und TK“ – Vollständiger Wortlaut des DV-Entwurfes).

Angaben zum Buch: Welf Schröter (Hg.): Der mitbestimmte Algorithmus. Gestaltungskompetenz für den Wandel der Arbeit. Mössingen 2019, 
ISBN 978-3-89376-181-4.

 

Posted in Allgemein | Tagged algorithmische Entscheidungssysteme Algorithmus Assistenztechnik Betriebsrat Digitalisierung Forum Soziale Technikgestaltung Internes Crowdsourcing Künstliche Intelligenz Nachholende Digitalisierung Personalrat | Leave a comment

Licht und Schatten im sogenannten „KI-Diskurs“

Posted on Dezember 11, 2019 by Welf Schroeter

Als vor nahezu 35 Jahren an vielen Universitäten das Fach Informatik eingerichtet wurde, gab es aus heutiger Sicht geradezu merkwürdige Diskussionen. Der Weg der Fakultätsgründungen spülte nicht selten einen besonderen Typ des männlichen Forscherdrangs auf die Lehrstühle. Dieser Typus verbat sich die Einmischung von Seiten der Sozialwissenschaften und wehrte sich gegen Anfragen aus der Zivilgesellschaft. Diese Einmischungen würden zum einen die Freiheit der Wissenschaft beeinträchtigen. Zum anderen seien sie in sich unlogisch, da die Informatik nur Grundlagenforschung betreibe und keinen direkten Anwendungsbezug zur Gesellschaft habe. Mit dieser Abwehrhaltung wollte sich die (damalige) konstruktive Kritik an der (damaligen) Informatik nicht zufrieden geben. Nach kurzer Zeit entfalteten sich an mehreren Hochschulen Forschungszusammenhänge und Institute unter dem Namen „Informatik und Gesellschaft“.

Auch der heutige Verlauf des Diskurses um die sogenannte „Künstliche Intelligenz“ bringt vergleichbare Momente von Licht und Schatten hervor. Es ist ermutigend festzustellen, dass in den Forschungen und Entwicklungen modernster Softwaresysteme zumeist offene Gesprächsverhältnisse vorherrschen und eine große Bereitschaft vorzufinden ist, mit zivilgesellschaftlichen Gruppen in den Dialog zu treten. Dennoch scheinen auch bestimmte Haltungen des Sich-Abgrenzens und des Denkens-in-Elfenbeintürmen zurückzukehren. Wenden wir uns jüngsten Beispielen zu:

Immer mehr schiebt sich in der aktuellen Debatte über die Gestaltung algorithmischer Entscheidungssysteme die Frage in den Vordergrund, ob es besondere Zulassungskriterien für die Nutzung und Anwendungen solcher Algorithmen und deren algorithmischer Entscheidungszusammenhänge geben sollte. Aus dem Forum Soziale Technikgestaltung heraus kommt der Vorschlag nach einem „mitbestimmten Algorithmus“. Dazu haben die Diskussionen mit Kolleginnen und Kollegen dreißig Kriterien für Zulassungen ergeben. Beim Versuch, diese Kriterien, diese Vorschläge aus dem Kreis der Zivilgesellschaft der „KI“-Forschungsgemeinde vorzustellen, kam uns das Argument entgegen, dass die Forschung dieser „KI“-Gemeinde lediglich Grundlagenforschung betreibe und diese Forschung keinen direkten gesellschaftlichen Anwendungsbezug ausweise. Das Forum solle lieber mit der Anwendungsforschung reden.

Über eine solche Aussage kann man nur den Kopf schütteln. Davon abgesehen, dass der Übergang zwischen Grundlagenforschung und Anwendung im Feld moderner Softwareforschung geradezu fließend ist, und dass gesellschaftliche Anforderungen zum frühest möglichen Zeitpunkt in der Arbeit der Forschung Berücksichtigung finden sollten, schadet eine solche Argumentation vor allem dem Anliegen der „KI“-Community selbst. Sie unterminiert die eigene Glaubwürdigkeit. Wer die letzten rund vierzig Jahre Forschung in der Technikfolgenabschätzung und in der Technikfolgenforschung betrachtet, stellt zudem unumwunden fest, dass der Abgrenzungsschritt („Grundlagenforschung“) auch einer modernen Methodendiskussion nicht standhält.

Mit einem weiteren Kopfschütteln muss man einen anderen Vorgang betrachten. Da hat sich ein kompetenter Kopf der verdienstvollen Aufgabe zugewandt, die nationale und internationale Diskussion zu durchforsten, um zu prüfen, welche Anforderungen akademische Autorinnen und Autoren an die Entwicklung neuer sogenannter „KI-Anwendungen“ formulieren. Erfreulich war im Ergebnis, dass die Anforderung nach Schutz der Privatheit den Spitzenplatz einnahm. Es folgten weitere – auch aus gewerkschaftlicher Sicht – gute Kriterien. Auf die Frage aber, warum nicht auch die vielfältigen Anforderungen aus der Zivilgesellschaft in diese wertende Übersicht aufgenommen wurden, kam die geradezu frappierende Antwort, dass er mit seinem Aufsatz im Wettbewerb mit internationalen Wissenschaftlern stehe und da passe der zivilgesellschaftliche Ansatz nicht hinein.

Zugegeben, die beschriebenen Beispiele zum Kopfschütteln sind Einzelfälle. Viele Akteure aus der Forschung würden über besagtes Verhalten selbst den Kopf schütteln. Dennoch ist es für die zivilgesellschaftliche Seite das Gegenteil von Ermutigung.

 

Posted in Allgemein | Tagged algorithmische Entscheidungssysteme Algorithmus generische Kriterien für Algorithmus-Zulassungen Grundlagenforschung Informatik Künstliche Intelligenz Privatheit Zivilgesellschaft | Leave a comment

Wunderliches aus dem „KI“-Wunderland

Posted on November 20, 2019 by Welf Schroeter

Ist es ein vorübergehendes kulturelles Phänomen oder ein neuer aktiv begünstigter Trend? Immer häufiger findet sich in Veranstaltungen ein ähnlicher Typus von Personen zur Diskussion eines gemeinsamen Themas zusammen: Es sind Männer, ältere Männer über siebzig, zumeist ehemalige Ingenieure und Informatiker, die heute im aktiven Unruhestand sind. Sie unterstreichen die zunehmende Bedeutung der „künstlichen Intelligenz“ und beschwören die Macht und Potenziale der Technik. Drohszenarien und Hoffnungsträume gleichen Inhalts machen die Runde. Strittig ist im Wesentlichen der Zeitfaktor: Wird die „KI-Superintelligenz“ die Macht über die Menschheit in dreißig, siebzig oder neunzig Jahren übernehmen? Das Ergebnis sei jetzt schon klar. Die „Superintelligenz“, die sogenannte „starke KI“ käme und sei nicht mehr aufzuhalten. Gepaart wird der technikzentrierte Monolog mit dem Hinweis auf die notwendige „evolutionäre“, biologische Veränderung des Menschen. Das neue Menschenbild sieht die Technik nicht als hilfreiche Assistenz für den Menschen, sondern den Menschen als körperliche Übergangsstation zum dauerhaften digital-virtuellen Weiterleben eines Ichs.

Mag sein, dass manche Leserin, mancher Leser, diese Beschreibungen als esoterischen Wunderglauben oder als Überreste später Männerträumereien ansieht. Leider meinen es diese genannten Personen ernst. Sie wollen die Öffentlichkeit zugunsten ihres Zukunftsdiskurses missionieren und – zumindest ein Teil von ihnen – aktiv bejahend dafür werben. Hält man dieser Gruppe vor, sie würden damit transhumanistisches Gedankengut transportieren und rechtliche Grundprinzipien in Frage stellen, reagieren sie gelassen. Sie seien keine Ideologen und im Übrigen würde die Erbschaft unserer bisherigen ethischen Spielregeln durch den praktischen Utilitarismus (die sich einschleichende Form praktischen Nützlichkeitshandelns, auch wenn man wisse, dass man jenseits rechtlicher Regeln sei) de facto verändert und nivelliert. Sie fordern Freiheit, Freiheit für die Wissenschaft, Freiheit für die Technik, Freiheit für den Roboter, Freiheit für den Wandel.

Solange diese Männerrunden nur beim Bier Träume austauschen, könnte man zurückhaltend und gelassen bleiben. Es ändert sich allerdings abrupt, wenn solche Männerrunden sich prominente Redner als Gäste einladen, die die rechtsstaatlichen Spielregeln als neuen Gegner ausgeben. Einer dieser Prominenten gab von sich, dass er den zentralen Gegner der „Künstlichen Intelligenz“ gefunden habe. Es sei die EU-Datenschutzgrundverordnung!

Diese Aussage erfolgte einige Wochen nachdem die Datenschutzbeauftragten der Republik in ihrer „Hambacher Erklärung“ im Mai 2019 die zentrale Bedeutung der EU-DSGVO für die rechtsstaatliche Bändigung von „KI“-Anwendungen unterstrichen. Dort heißt es unter anderem:

„Systeme der Künstlichen Intelligenz (KI) stellen eine substanzielle Herausforderung für Freiheit und Demokratie in unserer Rechtsordnung dar. Entwicklungen und Anwendungen von KI müssen in demokratisch-rechtsstaatlicher Weise den Grundrechten entsprechen. Nicht alles, was technisch möglich und ökonomisch erwünscht ist, darf in der Realität umgesetzt werden. Das gilt in besonderem Maße für den Einsatz von selbstlernenden Systemen, die massenhaft Daten verarbeiten und durch automatisierte Einzelentscheidungen in Rechte und Freiheiten Betroffener eingreifen. Die Wahrung der Grundrechte ist Aufgabe aller staatlichen Instanzen. Wesentliche Rahmenbedingungen für den Einsatz von KI sind vom Gesetzgeber vorzugeben und durch die Aufsichtsbehörden zu vollziehen. Nur wenn der Grundrechtsschutz und der Datenschutz mit dem Prozess der Digitalisierung Schritt halten, ist eine Zukunft möglich, in der am Ende Menschen und nicht Maschinen über Menschen entscheiden. […]“

 

Posted in Allgemein | Tagged Datenschutz Demokratie Digitalisierung EU-DSGVO Evolution Grundrechte Künstliche Intelligenz Menschenbild Rechtsstaat Superintelligenz Transhumanismus Utilitarismus | Leave a comment

Der künstliche Mensch? Menschenbilder im 21. Jahrhundert

Posted on Oktober 15, 2019 by Welf Schroeter

Unter diesem Titel haben sich Aktive aus dem Forum Soziale Technikgestaltung und aus dem Kreis der Partner zusammengefunden, um im Angesicht der sogenannten „Künstlichen Intelligenz“ Beiträge aus der Perspektive der Gewerkschaften, der Sozialwissenschaften, der Philosophie, der Religionskritik und der Jurisprudenz über den Mensch zu verfassen. Nicht die Technikanalyse steht im Vordergrund sondern die Frage nach der Rolle des Menschen und dem Menschenbild. Die Beiträge wurden zusammengeführt und als 125seitiger Schwerpunkt in dem mehr als 260 Seiten umfassenden Journal „Latenz“ im Oktober 2019 (Latenz 04/2019) veröffentlicht.

Ist die Frage nach einem ethischen Menschenbild ein überholter Romantizismus oder eine soziale Notwendigkeit der Aufklärung für den Zusammenhalt von Gesellschaften? Was sind die zukunftsweisenden Erbschaften einer Jahrhunderte übergreifenden Diskussion um das Bild des Menschen? Worauf basiert ein solidarisches Menschenbild? Welches Menschenbild transportieren die Bürger- und Menschenrechte? Wie lässt sich vermeiden, dass einseitig gesetzte und in Technik implementierte Profile von digitalen Figuren den demokratischen Regeln und Rechten der Vielfalt, der Integration und Inklusion zuwiderlaufen? Welche Konsequenzen haben die aktuellen technischen wie gesellschaftlichen Transformationsprozesse für eine philosophische Anthropologie?

Mit seinem Beitrag „Menschenbilder, Visionen, Normen: Orientierungen für ‚Gute Arbeit mit KI‘“ greift der Ver.di-Gewerkschafter Lothar Schröder in die Kontroverse um die „Künstliche Intelligenz“ ein. Aus arbeitsweltlicher Perspektive ermutigt er zur Weiterentwicklung der Humanisierung der Arbeit durch die Selbstbestimmung des Menschen: „Den Menschen als digitale Maschine zu deuten und ihn entsprechend programmierten, ‚lernenden‘ Systemen auszusetzen oder gar unterzuordnen, muss zwangsläufig zu inhumanen und inakzeptablen Resultaten führen.“

Für das „Recht auf Irrationalität“ angesichts der „zunehmenden Unbewohnbarkeit von Fiktionen“ spricht sich der Soziologe Stefan Selke aus. In Hinblick auf Big Data und die Verschiebung des Humanum durch erweiterte Digitalisierungen plädiert der Autor für die „selbstbestimmte Erzählbarkeit.“ Der Tübinger Philosoph Helmut Fahrenbach geht der anthropologischen Frage im Denken von Ernst Bloch nach. Unter dem Titel „Das Leben künstlich oder menschlich machen?“ übt Annette Schlemm philosophische Kritik an den Denkgebäuden des Transhumanismus. Sie verteidigt die zivilgesellschaftliche Vielfalt gegen technikgläubigen Reduktionismus. In brillanter Schärfe zeigt uns der Jurist Ingo Müller die Relevanz der Grundrechte auf und, „dass im Zentrum unserer Werteordnung die Grundrechte stehen, nicht Staat oder Kirche, sondern der Mensch“.

In einem Interview von Johanna Di Blasi kommt der Filmemacher Alexander Kluge zu Wort. Mit seiner Formel von der „Achtung vor Robotern“ setzt er sich mit der „sozialen Intelligenz der Maschinen und Goethes Homunculus, der klüger ist als der Mensch“ auseinander. Aus der Schweiz meldet sich Kurt Seifert mit einem philosophisch-politischen Text zu Wort: „Was fehlt? Transhumanismus als Anti-Utopie“. Mit der Widersprüchlichkeit und der historischen Belastetheit des Terminus „Der neue Mensch“ verknüpft der Autor frühe Diskussionen im Russland der zwanziger Jahre mit späteren autoritären Terrorformen Stalins und Mao Tse Tungs. Gegen eine einseitige Aufhübschung der Debatte um die sogenannten „Künstliche Intelligenz“ nimmt Welf Schröter in seiner pointierten nachdenklichen Polemik „Warum der Begriff ‚KI‘ nicht als ‚künstliche‘ sondern nur als ‚kleine‘ oder ‚keine Intelligenz‘ ausgeschrieben werden sollte“ aus gestaltungsspezifischer Sicht Stellung. Anknüpfend hat sich der Sozialwissenschaftler György Széll auf den Weg gemacht, eine umfangreiche, wertende Sammelrezension zu „KI“-Publikationen zu erstellen. Unter dem Titel „Homo sapiens demens“ bewegt er sich durch die Literatur.

Buchangaben: Latenz – Journal für Philosophie und Gesellschaft, Arbeit und Technik, Kunst und Kultur. Ausgabe 04|2019. Der Künstliche Mensch? Menschenbilder im 21. Jahrhundert. Hrsg. von Irene Scherer und Welf Schröter. Redaktion: Matthias Mayer, Mathias Richter, Inka Thunecke, Irene Scherer und Welf Schröter. 2019, 264 Seiten, 34,00 Euro, ISBN 978-3-89376-185-2.

 

Posted in Allgemein | Tagged Bürgerrechte Humanisierung der Arbeit Irrationalität Künstliche Intelligenz Menschenbild philosophische Anthropologie Roboter Selbstbestimmung Transhumanismus | Leave a comment

„Maschinenethik“ (Teil I): Annäherungen an einen schillernden und widersprüchlichen Begriff

Posted on Februar 9, 2019 by Welf Schroeter

Wer sich mit der Virtualisierung und Digitalisierung der Arbeitswelten befasst, stolpert schnell über die Erkenntnis, dass es neben den handfesten Veränderungen für arbeitende Menschen auch um Drittmittelmärkte, um Strategien zur Erlangung von staatlichen Fördermitteln und um zeitweise substanzlose Marketingauftritte geht. Dieses Auseinanderklaffen von realen Notwendigkeiten und bloßen Akquise-Shows begegnet den kundigen Betrachtenden nun auch auf der Bühne des Wortes „Maschinenethik“.

Wer sich unkundig in die Sprachwelten der „Maschinenethik“ vorwagt, zuckt beeindruckt zurück. Da treten wissenschaftliche Teams auf, die sich mit vermeintlich spektakulären Erkenntnissen aufmachen, Fördermittel aus den staatlichen Händen auf europäischer, Bundes- oder Landes-Ebene zu ergattern. Da werden „Wirklichkeiten“ beschrieben, die keine sind, um Aufmerksamkeit zu erheischen. So schreibt ein akademischer Kopf, dass das zentrale Zukunftsthema der Digitalisierung und Virtualisierung die Herausforderung sei, dass Maschinen nun Ethik und Moral besitzen und ausführen könnten.

Die Maschine wird zum bewusstseinsfähigen Subjekt ernannt, das durch Datensammeln und Auswertungen Bewusstsein, Reflexionskompetenz, Ethik und Moral erlangen könnte. Die vermeintliche „Künstliche Intelligenz“ verfügt in solchen Beschreibungen alsbald über „Künstliche Ethik“ oder noch besser – wie ein nach Aufmerksamkeit strebender Ethiker schreibt – über „Künstliche Tugend“.

Klar, wenn man ein solches Szenario den zuständigen Vergabestellen der Ministerien einreden kann, hat man den sechs- bis siebenstelligen Betrag schon gewonnen. Wer wollte angesichts solcher Dämonen an der Wand der Zukunft nicht den Steuer-Geldbeutel für kulturelle Prävention öffnen.

Bei allem Respekt vor Frauen und Männern aus Ingenieur- und Informationswissenschaften muss man laut „Halt“ rufen! Ein solches Verständnis und Szenario von „Maschinenethik“ ist schlicht inakzeptabel. Weder kann ein physischer Blechhaufen noch ein digitaler Software-Haufen im aufgeklärt sozialwissenschaftlichen, philosophischen und menschenrechtlichen Sinne Bewusstsein im Sinne des Humanum erreichen. Ein solches Gerede von „Maschinenethik“ will Aufmerksamkeit, will vorsätzlich verunsichern und den Golem herbeireden.

Betrachtet man die technologische Wirklichkeit des Status quo und die Arbeiten in Laboren, dann lässt sich zweifellos feststellen, dass hier Gigantisches geleistet wurde. Brillante Mathematik und hervorragende Informatik haben Software-Systeme (allen voran „Autonome Software-Systeme“) hervorgebracht, die in glänzender Weise zur Verfahrens- und Prozessteuerung geeignet sind. Diese Systeme spiegeln dem Menschen vor, dass die Software „denken“ könnte und der Mensch verhält sich entsprechend, um diese Projektion zu vervollkommnen.

Das Problem sitzt vor (!) dem Bildschirm. Der Mensch hält das Agieren der Software für Denken und orientiert sein eigenes Verhalten gemäß dieser Projektion. Nicht das nicht vorhandene Bewusstsein in (!) der Maschine ist zu hinterfragen, sondern das Naive im Bewusstsein des Menschen stellt die Herausforderung dar.

Gerade für einen konstruktiven und innovativen Umgang mit neuen digitalen Lösungen sollten wir uns nicht in die Sackgassen der Hollywood-Filme drängen lassen: Sogenannte „Künstliche Intelligenz“ mit Bewusstsein gibt es nicht. Auch nicht in naher Zukunft. Was es gibt, sind aufregend gute mathematische Anwendungen mit enormen Potenzialen. Diese gilt es, engagiert demokratisch und sozial zu gestalten. Lassen wir uns nicht von vermeintlichen „Maschinen-Ethikern“ davon abhalten.

 

Posted in Allgemein | Tagged Autonome Software-Systeme Bewußtsein Digitalisierung Ethik Humanum Künstliche Ethik Künstliche Intelligenz Künstliche Tugend Maschinenethik Reflexionsfähigkeit Software Virtualisierung | Leave a comment

Gibt es eine „soziale Künstliche Intelligenz“?

Posted on September 23, 2018 by Welf Schroeter

Diese Frage stellte jüngst ein IBM-Betriebsrat auf einer gemeinsamen Veranstaltung des Betriebsräte-Netzwerkes ZIMT, der IG Metall Heidelberg und des Forum Soziale Technikgestaltung. Sollen wir die „KI“ eher verhindern oder besser einer Regulation unterwerfen? Der Kollege sprach Klartext: Man solle seine Kraft nicht dafür verwenden, Unvermeidbares zu verhindern, als vielmehr beobachten, verstehen, Folgen abschätzen, bewerten und dementsprechend ein verbindliches „Regelwerk“ aufbauen.
Entscheidend sei, dass man als Betriebsrätin und Betriebsrat, als Personalrätin und Personalrat im besten Sinne des Wortes „am Ball bleibt“: „Wir müssen verstehen, was möglich ist“, um gestalterisch handeln zu können.

Für die weitergehende Debatte über „Künstliche Intelligenz“ (KI) erscheint es ergänzend sinnvoll zu erkennen, dass es sich bei der momentanen öffentlichen Verwendung des Kürzels „KI“ – ähnlich wie bei der Nutzung des Begriffs „Industrie 4.0“ – um eine zumeist oberflächliche Marketing-Sprache handelt. Menschen mit wenigen Kenntnissen über „KI“ soll diese Technikverknüpfung als verzaubernde Welterlösungsformel vermittelt werden. Was Ende der 80iger Jahre die „Schlanke Produktion“ war, was Mitte der 90iger das Wort „Multimedia“ besagte, was ab 2011 die Marke „Industrie 4.0“ werden sollte, dies geschieht derzeit mit dem Begriff „Künstliche Intelligenz“.

Der Begriff wird wie eine Art Breitbandantibiotikum verkündet. „KI“ könne alles, mache alles und bestimme die Zukunft. Wohlmeinende Diskutanten verstärken diesen Trend, indem sie Horrorszenarien an die Wand malen und die Marketingwirkung verstärken. Die „KI“ übernehme die Herrschaft und vernichte 80 Prozent der Arbeitsplätze. Doch bei nüchterner Betrachtung befinden sich die im Alltag anwendbaren „KI“-Systeme – mit Ausnahme der bereits eingeführten bzw. in Einführung befindlichen „ASS“ – auf einem recht geringen Niveau. Was im Labor jenseits des Datenschutzes und jenseits der Mitbestimmung technisch in ausgewählten Vorgängen in geschützter Umgebung klappt, ist deshalb noch lange nicht für die Arbeitswelt, für Fertigung und Dienstleistung tauglich.

„KI“ verstanden als Software-Anwendung („Autonome Software-Systeme“ ASS) ist in strukturierten und geschlossenen Netzräumen erfolgreich und sehr produktiv. Doch „KI“ im offenen Netz hat seine Bewährungsprobe oftmals noch vor sich. Dies gilt umso mehr dann, wenn „KI“ mit Robotern und autonomen Fahrzeugen verbunden wird. Die Werbe- und Marketingsprache verkündet uns „Lösungen“ auf dem Niveau einer Show am Messestand.

Die Tatsache, dass zwischen Marketing-Ankündigung und tatsächlichem Nutzungsniveau eine große Differenz besteht, stellt für gewerkschaftliches Handeln eine Chance dar. Es gilt, das vorhandene Zeitfenster (Differenz zwischen jetzigem Marketing und erhoffter späterer Nutzung) zu einer aktiven „vorausschauenden Technikgestaltung“ (Schröter) zu nutzen. Um „KI“ so zu gestalten, dass sie klimaschonend, sozial, rechtskonform und beschäftigungssichernd wirkt, bedarf es ausgewiesener Gestaltungskompetenz. Diese auf der Seite der Beschäftigten zu stärken, sollten unsere Bemühungen gelten. Noch gibt es keine „soziale Künstliche Intelligenz“.

 

Posted in Allgemein | Tagged ASS Autonome Software-Systeme Betriebsrat Gestaltungskompetenz Industrie 4.0 KI Künstliche Intelligenz Mitbestimmung Multimedia Regelwerk Schlanke Produktion Vorausschauende Technikgestaltung ZIMT | Leave a comment

Die Souveränität des Menschen wahren

Posted on Juli 6, 2018 by Welf Schroeter

„Der Kunde in uns läuft dem Arbeitsgestalter in uns ständig hinter her.“ Mit diesem charmant widersprüchlichen Satz beschrieb jüngst ein führender Gewerkschafter die innere Zerrissenheit des arbeitenden Menschen. Was sollen wir wollen angesichts technischer Versprechen, die sich hinter dem Begriff „Künstliche Intelligenz“ (KI) verbergen? Gelingt es den Gestaltungansätzen von Betriebs- und Personalräten sowie Gewerkschaften, die Souveränität des Menschen zu wahren?

Mit „lernenden Systemen“ gelinge es erstmalig, dass die Lernfähigkeit ökonomisch besitzbar wird. Lernfähigkeit gerät zum technikinduzierten Wirtschaftsfaktor. Aus der Lernfähigkeit des Menschen leite sich die Lernfähigkeit „autonomer Software-Systeme“ ab, so die These. Dabei sollte intervenierend ein ethisches Prinzip gewerkschaftlichen Denkens greifen. Die Autonomie des Menschen in der Arbeit soll Vorrang behalten vor der Autonomie technischer Systeme.

Kann dieses Ziel dadurch erreicht werden, dass von gewerkschaftlicher Seite die Idee eines „sozialen Pflichtenheftes für Künstlicher Intelligenz“ aktiviert wird? Lastenhefte und Pflichtenhefte sind im Umfeld analoger, genau beschreibbarer und vorhersehbarer technischer Abläufe entstanden. „Selbstlernende Software“ und „autonome Software-Systeme“ entziehen sich dieser Beschreibbarkeit aber dann, wenn sie selbst „lernend“ sind.

Einen hervorragenden Gedanken stellt ein nur scheinbar überraschender Vorschlag dar: Um die Möglichkeiten der „KI“ akzeptabel zu machen, sollte die Effizienzdividende der „KI“ in Gestalt von freier Zeit „ausbezahlt“ werden. Mit dem Einsatz von „KI“ sollen Beschäftigte tageweise Freizeit erhalten. So entstünde zwischen Mensch und „KI“ eine besondere Zeit-Freundschaft. Ein begrüßenswerter konkreter Tagtraum!

 

Posted in Allgemein | Tagged Autonome Software-Systeme Autonomie Betriebsrat Effizienzdividende Freizeit Künstliche Intelligenz Lastenheft Lernende Systeme Pflichtenheft | Leave a comment

Neu denken heißt interdisziplinär denken

Posted on April 4, 2018 by Welf Schroeter

Die zahlreichen Veranstaltungen zum Thema „Wirtschaft 4.0“, „Industrie 4.0“ oder „Arbeit 4.0“ zeigen in den meisten Fällen eine nicht unerwartete Gemeinsamkeit: Es ist das technikorientierte und oft technikzentrierte Denken. Mehr als dreißig Jahre Technikfolgenforschung und Technikfolgenabschätzung haben dagegen gezeigt, dass es in der Arbeits- und Wirtschaftswelt nichts gibt, das nur aus einem einzigen Blickwinkel heraus erklärbar ist. Diesem monokausalen Denken sollte ein Denken in Ganzheitlichkeit gegenüber gestellt werden. Auch viele gewerkschaftliche Diskurse stellen sich in diesem Sinne als noch zu eng angelegt dar.

Das Bedürfnis von Kolleginnen und Kollegen, etwas konkret Fassbares, etwas sinnlich Greifbares im Zusammenhang mit der digitalen Transformation geschildert zu bekommen, verleitet Vortragende zu einer allzu schnellen Flucht in die Technik. Technikzentriertes Denken aber ist altes Denken. Nicht die Technik stellt den Faktor von Innovationen dar, sondern die nichttechnischen Einflussgrößen entscheiden über Erfolg oder Misserfolg von Technikimplementierungen in Wirtschaft und Arbeitswelt.

Wer neu denken möchte, muss sich öffnen hin zu weiteren Aspekten und Gesichtspunkten des Wandels. Interessengeleitete Technikgestaltung benötigt die Blicke auf soziale Standards, auf Sozialpsychologie, auf Soziologie, auf Bildungswissenschaften, auf Arbeitsmedizin, auf Ethik, auf Gleichberechtigung, auf Demokratie und auf Philosophie. Wer nur über Technik reden kann, hat die Dimension des Wandels nicht verstanden.

Vor diesem Hintergrund ist die jüngste Rede des französischen Präsidenten Emmanuel Macron bemerkenswert. In seinem Statement zur französischen Strategie der verstärkten Entwicklung und Anwendung von „Künstlicher Intelligenz“ (KI) fordert er eine neue Perspektive für den KI-Aufbau. Macron will den interdisziplinären Ansatz als Basis der KI-Entwicklung unter aktiver Einbeziehung von Mathematik, Sozialwissenschaften, Technikwissenschaften und Philosophie.

In seinem Interview mit der Zeitschrift WIRED vom 31. März 2018 erläuterte er: „I want my country to be the place where this new perspective on AI is built, on the basis of interdisciplinarity: this means crossing maths, social sciences, technology, and philosophy. That’s absolutely critical. Because at one point in time, if you don’t frame these innovations from the start, a worst-case scenario will force you to deal with this debate down the line.“ Macron spricht sich für eine ethische und philosophische Gestaltung der KI-Entwicklung aus. D’accord!

Sascha Lobo hat in SPIEGEL Online Recht, wenn er von der Bundesregierung erwartet, sie möge sich an Macron in diesem Punkt ein Beispiel nehmen. Doch auch das baden-württembergische Projekt des „Cyber Valley“ zur KI-Forschung benötigt dringend zumindest eine Macron‘sche Interdisziplinarität.

 

Posted in Allgemein | Tagged Arbeit 4.0 Cyber Valley Digitale Transformation Gleichberechtigung Industrie 4.0 Interdisziplinarität Künstliche Intelligenz Macron Philosophie Technikfolgenabschätzung Technikfolgenforschung Technikgestaltung | Leave a comment

Post navigation

  • Older posts
  • Newer posts
Proudly powered by WordPress
Theme: Flint by Star Verte LLC