Ist die Bezeichnung „Künstliche Intelligenz“ sinnvoll?

Im Widerstand der Alliierten gegen die Hitler-Diktatur haben sich in den vierziger Jahren Wissenschaftlerinnen und Wissenschaftler zusammengefunden, um durch neue Wege der Informationsverarbeitung dazu beizutragen, den Nationalsozialismus zu zerschlagen. Die heutige Debatte über die sogenannte „Künstliche Intelligenz“ hat eine lange Vorgeschichte. Da sei beispielhaft an den Tübinger Biokybernetiker Prof. Dr. Valentin Braitenberg erinnert, der in den achtziger Jahren des letzten Jahrhunderts sein Engagement für „KI“ unter anderem mit dem Verweis auf die Shoah begründete.

Doch heute findet sich außerhalb des wissenschaftlichen Diskurses eine Fülle von Marketing-Versprechungen, die dazu geeignet sind, die Ideen, die hinter dem Traum der „KI“ stehen, erheblich zu beschädigen. Da verkünden große Firmen, dass demnächst das Auto besser denken könne als der Mensch. Was für ein Menschenbild steht hinter dieser Äußerung? An anderer Stelle des allgegenwärtigen Messe-Slangs werden alte Software-Hüte aus dreißig Jahren Digitalisierung als neue Produkte eines „KI“-Marktes präsentiert. Die Expertensysteme der neunziger Jahre, die Softwareagentensysteme aus der Zeit kurz nach der Jahrtausendwende und die Schlüsselanwendungen aus dem Jahr 2011 – gemeint sind die „Cyber-Physischen Systeme“ der „Industrie 4.0“ – sind plötzlich der jüngste Schrei der „KI“. Wir sollten nüchterner und ehrlicher werden. Helfen uns neue Etiketten für alte Produkte? Was gibt es schon lange? Was ist wirklich neu?

Die vermeintliche „KI“ ist auch mit den Worten „Robotik“ oder „selbstfahrende Autos“ nicht erklärt. Die mathematische Informationsverarbeitung ist Software. Das Blech der Roboter und der Autos ist nur das Anhängsel der Software. Die vernünftige Übersetzung des amerikanisch-englischen Wortes „artificial intelligence“ lautet nicht „Künstliche Intelligenz“ sondern „Künstliche Nachbildung“. Damit kommen wir dem Thema näher.

Seien wir mutig und ehrlich zugleich. Bei der Beantwortung der Frage, was tatsächlich neu ist, finden wir zu einer selbstbewussten Haltung des Respekts gegenüber verantwortungsbewussten IT-Teams zurück. Hinter dem Marketing-Hype steckt ein tatsächlicher Fortschritt: Was wir an neuen IT-technischen Leistungen vorfinden, hat aber nichts mit Software-„Intelligenz“ zu tun. Es „denkt“ nicht, „lernt“ nicht und hat kein „Ich“. Die Leistung steckt in brillanten Lösungen auf dem Gebiet der mathematischen und mathematisierenden Informationsverarbeitung. Brillante Mathematik. Von Menschen gemacht, von Menschen gestaltbar.

Das wirklich Neue liegt in mindestens zwei Perspektiven: Neben Software als starres, sich nicht veränderndes Werkzeug tritt Software als ein sich selbst veränderndes Werkzeug. Hinzu kommt die weitreichende Öffnung der Software-Entwicklung von der Qualität der „Assistenztechnik“ hin zum Potenzial der „Delegationstechnik“ (Schröter). Somit kann eine Software die Vollmacht bekommen, hinter dem Rücken des Menschen in Echtzeit rechtsverbindliche Prozesse (Transaktionen) zu analysieren, zu steuern und zu entscheiden. Das ist wirklich neu. Aber auch diese „Delegationstechnik“ „denkt“ nicht, „lernt“ nicht, hat kein „Ich“. Es bleibt Mathematik. Allerdings in exzellenter Form. Wir benötigen diese Technik unter anderem für das Erreichen der Klimaneutralität.

Sollen wir weiterhin von „KI“ reden? Es wäre ehrlicher, etwas tiefer anzusetzen. Vielleicht hilft – als provisorische Zwischenstufe für das Weiterdenken – nachfolgende Formulierung auf der Basis langjähriger Erfahrungen aus dem „Forum Soziale Technikgestaltung“ bei arbeitsweltbezogenen Technikeinführungen:

Es geht um die soziale Gestaltung „algorithmischer Steuerungs- und Entscheidungs-systeme“. Oder etwas umfänglicher ausgedrückt: Es geht um die Gestaltung „algorithmischer, sich selbst verändernder Software-Systeme für die arbeitsweltlichen Vorgänge wie Analyse, Entscheidungsvorbereitung, Prozesssteuerung und Entscheidungsvollzug im Feld der Assistenz- und Delegationstechnik“ (Schröter).

 

Es geht um die „Demokratisierung des Back-Ends“

Wer sich durch die aktuellen IT-Messen, Robotik-Ausstellungen, durch CeBITs und Hannover Messen bewegt, stößt auf sie. Wer sich mit den bunten Werbebroschüren einschlägiger Interessenverbände beschäftigt, kommt um das Schlagwort kaum herum. Wer sich im Netz auf Youtube mit dem vermeintlichen „Industrie 4.0“ auseinandersetzt, konfrontiert sich mit dem Begriff „Autonome Systeme“. In einem großen Schlagwort-Püree werden Digitalisierung, Virtualisierung, Künstliche Intelligenz (KI), Industrie 4.0, Arbeit 4.0, Robotik, Big Data, selbstfahrende Autos zu einem großen Gemisch zusammengerührt, das weder ermutigt, noch aufklärt, eher verklärt und eher irritiert. Der Satz „Alles hängt mit allem zusammen“ ist seit der Genesis (christliche Schöpfungserklärung) richtig und bringt daher keine weitere Erkenntnis.

Für viele Kolleginnen und Kollegen in den Betrieben, die das obige Gemisch aus der Perspektive der Arbeitswelt zu entwirren suchen, verbindet sich die Bezeichnung „Autonome Systeme“ mit Bildern von selbstlaufenden aufrechten Robotern, mit fahrerlosen Fahrzeugen oder mit selbstfahrenden Transportsystemen zur Anlieferung von Montagebauteilen. Kein Wunder: Wir sind es gewohnt, zunächst an Gegenständliches, an Physisch-Materielles zu denken. Wir sehen Hardware. Wir wollen anfassen.

Doch genau hier liegt eine der schwierigsten Herausforderungen im Wandel der Arbeitswelt. Die strategische Bedeutung der Bezeichnung „Autonome Systeme“ liegt nicht zuallererst in dem, was wir sehen und greifen können, sondern in dem, was nicht-materiell und im umgangssprachlichen Sinne „unsichtbar“ ist. Es ist die Software. Es sind insbesondere die Phänomene der „Autonomen Software-Systeme“ (ASS), der „selbstlernenden“ und „selbstentscheidenden“ Softwarelösungen, der Softwareanwendungen mit automatisierendem Vollzug in Verknüpfung mit „Cyber-Physischen Systemen“ (CPS).

Wir sind es gewohnt, vom sichtbaren mobilen oder nicht-mobilen Endgerät her zu denken, von der Displayfläche der Hardware. „Autonome Software-Systeme“ wirken aber – bildlich gesprochen – „hinter dem Bildschirm“, hinter dem Display. Statt uns auf das „Front-End“ zu konzentrieren, müssen wir uns besser im Gelände des „Back-End“ umsehen und dieses offensiv gestalten. Die Zukunft der Arbeit wird im „Back-End“ entschieden nicht im „Front-End“.

Die Verbesserung der Geräte-Nutzbarkeit, die Usability, die Ergonomie und die gesunde Handhabbarkeit sind zweifellos wichtig und dürfen nicht unterschätzt werden. Aber genauso wichtig ist die immer stärker zunehmende Kraft der Software, die faktisch Arbeitsabläufe und Geschäftsprozesse zu strukturieren und zu steuern versucht.
Es muss uns um die „Demokratisierung des Back-End“ (Schröter) und um die Demokratisierung der Prinzipien und generischen Kriterien für Algorithmen gehen. Wir benötigen offene interdisziplinäre Diskurse und Gestaltungskompetenz für die Idee des generisch (in seinen Grundsätzen) „mitbestimmten Algorithmus“ (Schröter).

In diesem Sinne muss den schon in der Arbeitswelt praktisch angekommenen Phänomenen der „Autonomen Software-Systemen“ (ASS) unsere wachsende und immer größer werdende Aufmerksamkeit gelten.

 

Wenn Technik dem arbeitenden Menschen vorausdenkt …

Mit der Entwicklung der CPS-Technik tritt den Betriebsräten, Vertrauensleuten und Gewerkschaften eine richtig dicke Nuss entgegen. Die will erstmal geknackt sein. Doch dies geht nicht allein mit dem traditionellen Denkansatz der räumlichen und zeitlichen Gestaltung des Arbeitsplatzes.

Was heute CPS heisst (Abkürzung für Cyber Physical System) nannte sich vor Jahren schon das Internet der Dinge oder RFID. Unscharf ausgedrückt ist es der Sensor-Chip am Gegenstand. Das neue an CPS ist nicht der Sensor, nicht der Chip und auch nicht seine Zuordnung zum Gegenstand.

Neu ist die Qualität seiner Anbindung an das globale Netz. CPS ist kein statisches Gebilde, was als einmal hergestellt immer so bleibt. Da CPS ständig am Netz immer Daten empfangen und immer Daten senden kann, verfügt es über die Eigenschaft, die Techniker gerne als „Denken“ bezeichnen. CPS sammelt. CPS „denkt“. CPS „lernt“. Herausfordernd wird es, wenn CPS-Einheiten dem arbeitenden Menschen Vorgaben machen, den Takt geben und dem Menschen in den Handlungsschritten voraus sind. Wenn sie durch das ständige Empfangen neuer Daten dem Menschen ständig voraus sind. In Echtzeit. Die IT-Leute sagen: „CPS denkt voraus.“

Das Internet der Dinge ist nicht mehr statisch. Es lernt. Es geht dem Menschen voran. – Was bedeutet dies aber für die Forderung nach Selbstbestimmung in der Arbeit und für die Humanisierung der Arbeit? Momentan sieht es so aus, dass entweder die CPS-Technologie verändert und dem Menschen angepasst werden muss oder aber der arbeitsweltliche Gestaltungs- und Humanisierungsansatz zu greifen hat, bevor das CPS in seine Echtzeit-Welt gestartet wird.

Dann wäre die Gestaltung erforderlich auf der Ebene der Prozessorganisation, der komplexen Prozessorganisation. Nur so ließe sich die Beschleunigungswirkung von Echtzeitanwendungen positiv beeinflussen. So ließe sich nachhaltig vermeiden, dass der arbeitende Mensch nur noch zum taktgebundenen Assistent des CPS verwandelt würde. – Wir müssen neu (nach)denken.

Projektidee auf dem Weg zu „Mitbestimmung 4.0“?

Dieses noch unbestimmte Stichwort folgt den derzeitig gängig benutzten Begriffen „Industrie 4.0“ und „Arbeit 4.0“. Eines der wesentlichen Ziele von „Industrie 4.0“ ist die Digitalisierung und Virtualisierung betriebsübergreifender Wertschöpfungsketten. In Echtzeit sollen Geschäfts- und Arbeitsprozesse mit Hilfe besonderer elektronischer Werkzeuge wie etwa CPS Cyber Physical Systems umsetzbar werden. Diese Umorganisation von Arbeitsabläufen fordert die Mitbestimmung von Betriebsräten heraus. Wie aber soll eine betriebsübergreifende, entlang der Wertschöpfungskette angelegte Mitbestimmung aussehen? „Mitbestimmung 4.0“ in „Industrie 4.0“?

Im gewerkschaftsnahen Forum Soziale Technikgestaltung wurde jüngst eine herausfordernde Idee durchgespielt: Könnten neue Erfahrungen dadurch gesammelt werden, in dem ein ausgewählter Mitbestimmungsvorgang entlang einer firmenübergreifenden Auftragsabwicklung als Experimentiermodus im virtuellen Raum simuliert wird? Kann ein Betriebsräte übergreifender Mitbestimmungsprozess unter aktiver Nutzung des Cloud Computing, der CPS-Anwendungen und des Softbot-Einsatzes beispielhaft durchgespielt werden, um die Kommunikationsabläufe, Hindernisse, Schranken und Potenziale zu überprüfen?

Durch die Nutzung zentraler Instrumente von „Industrie 4.0“ für die Arbeit des Betriebsrates könnten Erfahrungen gesammelt, Risiken identifiziert und konstruktive Lösungen herausgefunden werden. Praxistests und Pilotierungen erbringen neues Erfahrungswissen. Zugleich könnten die Beteiligten lernen, wie sich interessengeleitete Technikgestaltung leichter operativ durchsetzen ließe. – Wer hat Erfahrungen mit einem solchen Ansatz? Wie könnte er realisiert werden?