Daten sind nicht gleich Daten

Die Prognosen der IT-Szene sind eindeutig: Tag für Tag, Jahr für Jahr vervielfachen sich die Datenmengen im Netz. Es bedarf daher kluger Software-Lösungen, um immense Volumina verarbeiten und auswerten zu können. Big Data, „Watson“, „autonome Software-Systeme“ (ASS) und andere automatisierende Software versprechen der Kundschaft baldige verlässliche Erfolge. Es gelte, Prozesse sowohl im Nachhinein zu überprüfen als auch vorausschauende Bewegungs- und Verhaltensmuster zu erkennen.

Als Instrument der Datenaufbereitung sollen dem arbeitenden oder einkaufenden Menschen nicht nur lange Zahlen- und Wortreihen zur Verfügung stehen. Um eine leichtere Vermittelbarkeit und bessere Verständlichkeit zu ermöglichen, setzt die IT-Szene auf eine Weitergabe und Präsentation der Ergebnisse in Gestalt von Bildern, bewegbaren Bildern (interaktive Visualisierung). Es schlägt vermehrt die Stunde der „virtuellen Realität“ (virtual realitiy, VR), zu der man mit digitalen Brillen Zugang bekommt.

Doch kann man den Ergebnissen trauen? Traut man den Daten, traut man den Ergebnissen. Wer aber garantiert die Integrität, Verlässlichkeit, Verfügbarkeit der Datenmengen? Wie lässt sich „Datenwahrhaftigkeit“ in Echtzeit überprüfen? Aus der Vergangenheit wissen wir, dass Daten immer mehrdeutig sind: „Der Tor bewegte sich durch ein Tor zum Tor und schoss ein Tor.“ Handelt es sich um vier Personen oder um ein Vier zu Null?

So besehen ist die Frage nach der „Datenwahrhaftigkeit“ nicht primär eine technische Herausforderung. Es geht um überprüfbare, an vereinbarten Kriterien orientierte Standardisierungen der Sammlung, Verarbeitung und Bewertung großer Datenmengen durch automatisierende Werkzeuge. Die Standardisierungen können nicht der IT-Entwicklerszene und der IT-Industrie überlassen werden. Dies stellt eine gesellschaftliche Aufgabe dar. Wertevielfalt, Wertepluralismus, Interessenoffenheit, Demokratieprinzipien, Egalität, Integration, Inklusion, Geschlechtergerechtigkeit, Gleichberechtigung, soziale Kontexte und Interdependenzen sind zu berücksichtigen. Technik ist nie neutral und nie wertfrei. Jede Technikentwicklung reproduziert Interessenlagen. Diesen Prozess gilt es zu demokratisieren.

Big Data und vergleichbare Vorgänge (wie etwa ASS) sowie ihre Datengrundlagen müssen nachvollziehbar wie auch überprüfbar sein. Demokratische Transparenz hat Vorrang vor technischem Determinismus. Daten sind ja eben nicht gleich Daten.

 

Big Data: Phantasie ist wichtiger als Daten

„Es geht darum, dass wir als Gesellschaft klüger werden. Der Mensch muss intelligent werden, damit er intelligente Technik nutzen kann“ (Ovtcharova). Diese Sätze könnte man leitmotivisch über den aufschlussreichen Vortrag spannen, den die Ingenieurin, Maschinenbauerin und Informatikerin Prof. Dr. Dr.-Ing. Dr. h. c. Jivka Ovtcharova, Direktorin am FZI Forschungszentrum Informatik am Karlsruher Institut für Technologie, vor Betriebsräten zahlreicher prominenter Industriefirmen hielt. Auf Einladung des regionalen Betriebsrätenetzwerkes ZIMT, der IG Metall Heidelberg, der Regionalgruppe Rhein-Neckar der Gesellschaft für Informatik e.V. (GI), des Forum Soziale Technikgestaltung sprach die Spezialistin für Virtual Engineering über „Big Data und die Auswirkungen auf die Arbeitswelt – Potenziale, Herausforderungen und Gestaltung“.

Big Data bezeichnet primär die Verarbeitung von großen, komplexen und sich schnell ändernden Datenmengen. Unternehmen erhoffen sich von der Analyse von Big Data Möglichkeiten zur Erlangung von Wettbewerbsvorteilen, zur Generierung von Einsparungspotentialen und zur Entwicklung neuer Geschäftsfelder. Die Möglichkeiten der Auswertungen liegen nicht nur in der Vorausschau von Vorgängen wie etwa der „vorausschauenden Wartung“ (predictive maintainance). Die Anwendungen von Big Data werden das Entstehen neuer Produkte, neuer Dienstleistungen und neuer Beschäftigung maßgeblich beeinflussen. Sie werden bestehende Arbeitsmilieus grundlegend verändern.

Jivka Ovtcharova erläuterte zum einen, dass die Datenmengen in Wirtschaft und Gesellschaft in naher Zukunft drastisch ansteigen werden und dass für deren sinnvolle Auswertungen kluge Lösungen mit Hilfe von Big Data-Anwendungen vonnöten sind. Als Beispiel nannte die Referentin die Datenmenge, die ein Inlandsflug einer Boeing 747 hervorbringt: 240 Terabyte. Voraussichtlich werden bis zum Jahr 2020 fünf Milliarden Menschen zwanzig Milliarden Geräte nutzen. Bis zum Jahr 2025 wird das weltweite Datenvolumen auf 163 Zettabyte zuwachsen. Eine Zahl mit 21 Nullen, die für den Menschen unvorstellbar ist.

Im Zentrum ihres Vortrages stand ein Szenario, das von drei Perspektiven ausging: Zur bisherigen physisch-materiellen Welt hat sich die digital-immaterielle Welt hinzuentwickelt. Letztlich entscheidend sei aber die Erfahrung mit der „mentalen Welt“ (Ovtcharova). Diese umfasse den Umgang des Menschen mit dieser Veränderung. Es gehe um die kognitiven Fähigkeiten sowie um das Erfahren und Erleben: „Phantasie ist wichtiger als Wissen.“ Menschliche Wahrnehmung und emotionale Bindung seien essentiell: „Menschen haben ein Bauchgefühl, Rechner können das nicht.“ Die Informatikerin plädierte für ein menschenbezogenes Vorgehen.

Zugleich forderte sie mehr Offenheit, um mit diesem großen Wandel souverän umgehen zu können: „Probleme werden nicht mit der alten Denkweise gelöst.“ Big Data-Anwendungen seien vor allem eine gesellschaftliche Herausforderung. Man müsse sich verstärkt den Gestaltungen von virtuellen Realitäten, Echtzeitfähigkeiten und Algorithmen widmen. Jivka Ovtcharova ermutigte die Frauen und Männer aus den Betriebsräten, sich diesen Themen zu öffnen.

Als mögliche operative Umsetzung von Frau Ovtcharovas Appell präsentierte der Leiter des Forum Soziale Technikgestaltung im Anschluss vierzehn Handlungsempfehlungen für Betriebsräte („Big Data und die Auswirkungen auf die Arbeitswelt – Handlungsempfehlungen aus dem Forum Soziale Technikgestaltung“) (schroeter@talheimer.de).

 

CeBIT 2017: Vom Assistenten Watson zum Prinzip Watson

Die diesjährige CeBIT empfing ihre Besucher nicht nur mit leeren Ausstellungshallen sondern auch mit einer ungewöhnlichen Überraschung. „Dr. Watson“ war gekommen. Lange Zeit verband man mit dem IBM-Superrechnersystem eine außergewöhnliche Rechenleistung, das auf gezielte Fragen in Echtzeit passgenaue Antworten lieferte. „Dr. Watson“ war bislang vor allem ein möglicher Assistent für den Menschen. Im Zentrum stand die Beratung für Ärzte bei der Formulierung von Krebsbehandlungstherapien.

Auf der CeBIT 2017 wandelte „Watson“ sein Gesicht. IBM lud ein mit der Parole „Discover Watson“ („Entdecke Watson“). Nun war das System nicht mehr nur Hilfestellung sondern wurde zur Bedingung einer vorausschauenden Entscheidungsfindung. „Watson“ wurde zum Prinzip einer integrierten Dienstleistung, die mit Hilfe „intelligenter“ Big Data-Anwendungen Wandlungsvorgänge vorhersehen will, um präventiv Entscheidung anzuleiten. „Watson“ war plötzlich als Querschnittstechnik in Anwendungen für Verkehrssteuerungen, Wettervorhersagen, Geschäftsprozessentwicklungen, Modedesigns, Finanztransaktionen etc. Das Prinzip „Watson“ will Ereignisse vorabschätzen, will Steuerungsvorschläge unterbreiten und am besten an Stelle des Menschen entscheiden. „Watson“ bündelt die Leistungskraft autonomer Software-Systeme mit neuen Big Data-Potenzialen.

Die IBM-Dienste- und Dienstleistungspakete werden den europäischen Markt erobern. „Watson“ passt als Prinzip in die digitale Transformation. Zugleich bildet „Watson“ einen immensen Datenpool, der die Werkschöpfungsketten disruptiv verändern kann.

Nun steht der Ex-Assistent „Watson“ vor einer neuen Herausforderung: Lässt sich „Watson“ mit den Potenzialen der BlockChain-Technologie erfolgreich kombinieren? Das wäre eine weitere Steigerung der Dezentralisierung von Geschäfts- und Arbeitsprozessen. Wer aber führt, wenn „Watson“ führt?