Daten sind nicht gleich Daten

Die Prognosen der IT-Szene sind eindeutig: Tag für Tag, Jahr für Jahr vervielfachen sich die Datenmengen im Netz. Es bedarf daher kluger Software-Lösungen, um immense Volumina verarbeiten und auswerten zu können. Big Data, „Watson“, „autonome Software-Systeme“ (ASS) und andere automatisierende Software versprechen der Kundschaft baldige verlässliche Erfolge. Es gelte, Prozesse sowohl im Nachhinein zu überprüfen als auch vorausschauende Bewegungs- und Verhaltensmuster zu erkennen.

Als Instrument der Datenaufbereitung sollen dem arbeitenden oder einkaufenden Menschen nicht nur lange Zahlen- und Wortreihen zur Verfügung stehen. Um eine leichtere Vermittelbarkeit und bessere Verständlichkeit zu ermöglichen, setzt die IT-Szene auf eine Weitergabe und Präsentation der Ergebnisse in Gestalt von Bildern, bewegbaren Bildern (interaktive Visualisierung). Es schlägt vermehrt die Stunde der „virtuellen Realität“ (virtual realitiy, VR), zu der man mit digitalen Brillen Zugang bekommt.

Doch kann man den Ergebnissen trauen? Traut man den Daten, traut man den Ergebnissen. Wer aber garantiert die Integrität, Verlässlichkeit, Verfügbarkeit der Datenmengen? Wie lässt sich „Datenwahrhaftigkeit“ in Echtzeit überprüfen? Aus der Vergangenheit wissen wir, dass Daten immer mehrdeutig sind: „Der Tor bewegte sich durch ein Tor zum Tor und schoss ein Tor.“ Handelt es sich um vier Personen oder um ein Vier zu Null?

So besehen ist die Frage nach der „Datenwahrhaftigkeit“ nicht primär eine technische Herausforderung. Es geht um überprüfbare, an vereinbarten Kriterien orientierte Standardisierungen der Sammlung, Verarbeitung und Bewertung großer Datenmengen durch automatisierende Werkzeuge. Die Standardisierungen können nicht der IT-Entwicklerszene und der IT-Industrie überlassen werden. Dies stellt eine gesellschaftliche Aufgabe dar. Wertevielfalt, Wertepluralismus, Interessenoffenheit, Demokratieprinzipien, Egalität, Integration, Inklusion, Geschlechtergerechtigkeit, Gleichberechtigung, soziale Kontexte und Interdependenzen sind zu berücksichtigen. Technik ist nie neutral und nie wertfrei. Jede Technikentwicklung reproduziert Interessenlagen. Diesen Prozess gilt es zu demokratisieren.

Big Data und vergleichbare Vorgänge (wie etwa ASS) sowie ihre Datengrundlagen müssen nachvollziehbar wie auch überprüfbar sein. Demokratische Transparenz hat Vorrang vor technischem Determinismus. Daten sind ja eben nicht gleich Daten.

 

Die Souveränität des Menschen wahren

„Der Kunde in uns läuft dem Arbeitsgestalter in uns ständig hinter her.“ Mit diesem charmant widersprüchlichen Satz beschrieb jüngst ein führender Gewerkschafter die innere Zerrissenheit des arbeitenden Menschen. Was sollen wir wollen angesichts technischer Versprechen, die sich hinter dem Begriff „Künstliche Intelligenz“ (KI) verbergen? Gelingt es den Gestaltungansätzen von Betriebs- und Personalräten sowie Gewerkschaften, die Souveränität des Menschen zu wahren?

Mit „lernenden Systemen“ gelinge es erstmalig, dass die Lernfähigkeit ökonomisch besitzbar wird. Lernfähigkeit gerät zum technikinduzierten Wirtschaftsfaktor. Aus der Lernfähigkeit des Menschen leite sich die Lernfähigkeit „autonomer Software-Systeme“ ab, so die These. Dabei sollte intervenierend ein ethisches Prinzip gewerkschaftlichen Denkens greifen. Die Autonomie des Menschen in der Arbeit soll Vorrang behalten vor der Autonomie technischer Systeme.

Kann dieses Ziel dadurch erreicht werden, dass von gewerkschaftlicher Seite die Idee eines „sozialen Pflichtenheftes für Künstlicher Intelligenz“ aktiviert wird? Lastenhefte und Pflichtenhefte sind im Umfeld analoger, genau beschreibbarer und vorhersehbarer technischer Abläufe entstanden. „Selbstlernende Software“ und „autonome Software-Systeme“ entziehen sich dieser Beschreibbarkeit aber dann, wenn sie selbst „lernend“ sind.

Einen hervorragenden Gedanken stellt ein nur scheinbar überraschender Vorschlag dar: Um die Möglichkeiten der „KI“ akzeptabel zu machen, sollte die Effizienzdividende der „KI“ in Gestalt von freier Zeit „ausbezahlt“ werden. Mit dem Einsatz von „KI“ sollen Beschäftigte tageweise Freizeit erhalten. So entstünde zwischen Mensch und „KI“ eine besondere Zeit-Freundschaft. Ein begrüßenswerter konkreter Tagtraum!

 

Robotik hinter der Robotik

Die Geschichte der Robotik, ihre darin enthaltenen Hoffnungen und Befürchtungen, reicht weit zurück. Vor mehr als 200 Jahren wurde erstmals ein technischer Versuch unternommen, einen Roboter zu bauen. Es war eine Tiernachbildung. Unser aktuelles Verständnis wurde vor allem von Zukunftsszenarien geprägt, die schon in den 1920iger Jahren davon sprachen, dass menschenähnliche Roboterfiguren die Herrschaft an sich reißen. 1968 brachte Hollywood den Roboter HAL auf die Leinwand, der eigensinnig dem Menschen seinen Willen aufdrängen wollte. Doch diese Sichten decken sich nicht mit den derzeitigen Realitäten.

Heute sind in den Unternehmen noch sogenannte „Assistenzsysteme“ vorherrschend. Sie sind in der Regel „festgeschraubt“ und vollziehen begrenzte, immer wiederkehrende Bewegungen. Man denke an Lackier-Roboter, die einarmig Karosserieteile mit Farbe besprühen. Sie werden mittels Software auf unterschiedliche Formungen ausgerichtet, aber der Lackiervorgang bleibt weitgehend unverändert.

Eine ganz andere Welt bilden dagegen die Versuche, menschenähnliche (humanoide) Roboter herzustellen. Deren Herausforderungen liegen vordergründig in der Frage, ob diese eine menschenähnliche Gestalt, also ein Gesicht, erhalten sollen. Je mehr der Roboter über ein Gesicht verfügt, umso eher ist der arbeitende Mensch geneigt, der Maschine die Fähigkeiten, Denken und Fühlen zu können, zuzuschreiben.

Für die Robotikforschung heute gilt vermehrt die Frage, ob es gelingt, der humanoiden Robotik „Kommunikation“, „Mimik“, „Gestik“ und „Eigenkommunikation“sfähigkeiten beizubringen bzw. anzutrainieren. Hier ist die Entwicklung zwar fortgeschritten, aber dennoch in den Kinderschuhen.

Anders sieht es aus, wenn einarmige oder zweiarmige Assistenzroboter sowie Ansätze humanoider Robotik mit digitalen Plattformen und Clouds verknüpft werden. Dadurch wird es möglich, das „Lernen“ und Steuern des Roboters über das Netz zu beschleunigen. Dann übernehmen „intelligente“ Software-Lösungen die Federführung. Die „blecherne Figur“ wird zum Anhängsel.

Die Zukunft der Robotik liegt vor allem in der Software.

 

Digitalisierung für alle

„Bringt die Einführung von E-Government größere Spielräume für bürgerschaftliche Beteiligungen in den Kommunen?“ – Diese Frage diskutierte der Kongress „Digitalisierung für alle“ am 5. und 6. Juni 2018 in der Evangelischen Akademie Bad Boll. Die Teilnehmenden der Veranstaltung sprachen sich für einen menschenzentrierten Ansatz aus, statt einer nur technikgetriebenen Vorgehensweise.

„Die Digitalisierung muss in die Demokratie eingebettet werden und nicht umgekehrt“, erklärte das Netzwerk „Sozialer Zusammenhalt in digitaler Lebenswelt“, das zu dem öffentlichen Ratschlag eingeladen hatte. Der Kongress setzte sich wenige Tage vor der Verabschiedung des neuen E-Government-Gesetzes im Landtag für mehr Bürgerpartizipation auf kommunaler Ebene ein. Das Netzwerk „Sozialer Zusammenhalt in digitaler Lebenswelt“ wurde von zivilgesellschaftlichen Gruppen, kirchlichen Verbänden, politischen Stiftungen und Gewerkschaften gegründet.

Der Mensch müsse im Zentrum stehen. Technik habe dienende Funktionen. Mit dieser Haltung beriet der Kongress Empfehlungen für mehr Bürgerbeteiligung, soziale Innovationen im Übergang Schule-Beruf, Schutz der Privatsphäre und Inklusion von Menschen mit Beeinträchtigungen. Das Netzwerk wird seine Arbeit fortsetzen.

„Mit unserem Netzwerk wollen wir dem Prozess der Digitalisierung mehr soziale, ethische und solidarische Grundwerte unterlegen. Unsere Gesellschaft braucht nicht eine technik- oder nur marktzentrierte Umsetzung der digitalen Transformation sondern einen nachhaltigen Weg, der allen Zugang und Zugänglichkeit verschafft.“ Digitalisierung gelinge dann, wenn sie auf Demokratie, Privatheitsschutz, Integration und Inklusion basiere. „Wir wollen mehr Mitbestimmung durch Bürgerinnen und Bürger.“

Die digitale Transformation der Wirtschafts- und Arbeitswelten verändere das Verhältnis von Mensch und Technik: „Technik muss dem Menschen dienen. Der Mensch darf nicht der bloße Assistent digitaler Technik werden. Eine durch Digitalisierung und Virtualisierung sich wandelnde Zivilgesellschaft benötigt einen öffentlichen und beteiligungsorientierten Diskurs über moderne Ethik und die Stellung des Menschen in technikgestützten Lebenswelten.“

Das Netzwerk setze sich daher für die stärkere Beteiligung von Bürgerinnen und Bürgern bei der Ausgestaltung des Wandels ein: „Um die Vorteile der Digitalisierung für die Gesellschaft absichern zu können, brauchen wir alle eine Stärkung unseres Rechts auf informationelle Selbstbestimmung, einen intensiveren Schutz der Privatheit, einen umfassenden Daten- und Identitätsschutz, denn dieser Schutz der Privatheit ist ein wesentlicher Baustein des Fundaments unserer Demokratie.“

 

Big Data: Phantasie ist wichtiger als Daten

„Es geht darum, dass wir als Gesellschaft klüger werden. Der Mensch muss intelligent werden, damit er intelligente Technik nutzen kann“ (Ovtcharova). Diese Sätze könnte man leitmotivisch über den aufschlussreichen Vortrag spannen, den die Ingenieurin, Maschinenbauerin und Informatikerin Prof. Dr. Dr.-Ing. Dr. h. c. Jivka Ovtcharova, Direktorin am FZI Forschungszentrum Informatik am Karlsruher Institut für Technologie, vor Betriebsräten zahlreicher prominenter Industriefirmen hielt. Auf Einladung des regionalen Betriebsrätenetzwerkes ZIMT, der IG Metall Heidelberg, der Regionalgruppe Rhein-Neckar der Gesellschaft für Informatik e.V. (GI), des Forum Soziale Technikgestaltung sprach die Spezialistin für Virtual Engineering über „Big Data und die Auswirkungen auf die Arbeitswelt – Potenziale, Herausforderungen und Gestaltung“.

Big Data bezeichnet primär die Verarbeitung von großen, komplexen und sich schnell ändernden Datenmengen. Unternehmen erhoffen sich von der Analyse von Big Data Möglichkeiten zur Erlangung von Wettbewerbsvorteilen, zur Generierung von Einsparungspotentialen und zur Entwicklung neuer Geschäftsfelder. Die Möglichkeiten der Auswertungen liegen nicht nur in der Vorausschau von Vorgängen wie etwa der „vorausschauenden Wartung“ (predictive maintainance). Die Anwendungen von Big Data werden das Entstehen neuer Produkte, neuer Dienstleistungen und neuer Beschäftigung maßgeblich beeinflussen. Sie werden bestehende Arbeitsmilieus grundlegend verändern.

Jivka Ovtcharova erläuterte zum einen, dass die Datenmengen in Wirtschaft und Gesellschaft in naher Zukunft drastisch ansteigen werden und dass für deren sinnvolle Auswertungen kluge Lösungen mit Hilfe von Big Data-Anwendungen vonnöten sind. Als Beispiel nannte die Referentin die Datenmenge, die ein Inlandsflug einer Boeing 747 hervorbringt: 240 Terabyte. Voraussichtlich werden bis zum Jahr 2020 fünf Milliarden Menschen zwanzig Milliarden Geräte nutzen. Bis zum Jahr 2025 wird das weltweite Datenvolumen auf 163 Zettabyte zuwachsen. Eine Zahl mit 21 Nullen, die für den Menschen unvorstellbar ist.

Im Zentrum ihres Vortrages stand ein Szenario, das von drei Perspektiven ausging: Zur bisherigen physisch-materiellen Welt hat sich die digital-immaterielle Welt hinzuentwickelt. Letztlich entscheidend sei aber die Erfahrung mit der „mentalen Welt“ (Ovtcharova). Diese umfasse den Umgang des Menschen mit dieser Veränderung. Es gehe um die kognitiven Fähigkeiten sowie um das Erfahren und Erleben: „Phantasie ist wichtiger als Wissen.“ Menschliche Wahrnehmung und emotionale Bindung seien essentiell: „Menschen haben ein Bauchgefühl, Rechner können das nicht.“ Die Informatikerin plädierte für ein menschenbezogenes Vorgehen.

Zugleich forderte sie mehr Offenheit, um mit diesem großen Wandel souverän umgehen zu können: „Probleme werden nicht mit der alten Denkweise gelöst.“ Big Data-Anwendungen seien vor allem eine gesellschaftliche Herausforderung. Man müsse sich verstärkt den Gestaltungen von virtuellen Realitäten, Echtzeitfähigkeiten und Algorithmen widmen. Jivka Ovtcharova ermutigte die Frauen und Männer aus den Betriebsräten, sich diesen Themen zu öffnen.

Als mögliche operative Umsetzung von Frau Ovtcharovas Appell präsentierte der Leiter des Forum Soziale Technikgestaltung im Anschluss vierzehn Handlungsempfehlungen für Betriebsräte („Big Data und die Auswirkungen auf die Arbeitswelt – Handlungsempfehlungen aus dem Forum Soziale Technikgestaltung“) (schroeter@talheimer.de).

 

Was bedeutet „internes Crowdsourcing“?

Seit längerem gibt es eine ausführliche Gestaltungsdebatte über das sogenannte „externe Crowdsourcing“. Darunter ist vorwiegend zu verstehen, dass Arbeitsinhalte in großen und kleinen Häppchen aus Unternehmen über elektronische Plattformen an sich bewerbende Soloselbstständige – auch Freelancer, Freie, Clickworker, Crowdworker genannt – nach draußen vergeben und verteilt werden. Die Bezahlung erfolgt pro Einzelauftrag. Für Sozialabgaben, Netzzugang, Technik, Gesundheit, Qualifizierung sind die Bewerber/innen selbst verantwortlich. Diese neue Arbeitswelt pendelt zwischen elektronischem prekärem Tagelöhnertum am Rande wettbewerblicher Plattformen und besser bezahlten qualifizierten Fachkräften, die ihre Arbeitskraft und Kompetenz teurer verkaufen können. Kern der Prozesse ist das Faktum, dass die so arbeitenden Menschen weder zum Betrieb noch zum Geltungsbereich der Mitbestimmung gehören.

Parallel dazu entfaltet sich derzeit – vor allem zunächst in großen Betrieben – ein neues Phänomen, das sich „internes Crowdsourcing“ nennt. Hierbei sollen Arbeitsprozesse innerhalb des Unternehmens über eine elektronische Plattform neu organisierbar werden. Alle Beteiligten gehören zum Unternehmen und alle Neuordnungen unterliegen in der Regel der Mitbestimmung des Betriebsrates. Mit diesem „internen Crowdsourcing“ wird derzeit in mehreren größeren Betrieben experimentiert.

„Internes Crowdsourcing“ erscheint an manchen Stellen zunächst als Fortführung des alten „Vorschlagswesens“ oder des internen Innovationsmanagements. Dabei sollen auf freiwilliger Basis neue innovative Ideen der Menge der Beschäftigten (crowd) per Plattform abgeschöpft (sourcing) werden. Bei guter mitbestimmter Organisation kann dieses freiwillige kreative Verfahren zu Verbesserungen, zu neuen Produkten und Dienstleistungen beitragen.

Zugleich kann dieser Weg in neue Plattformarbeitswelten auch zu einem verpflichtenden auftragsbezogenen Innovationsprozess führen. Per Direktionsrecht könnten Beschäftigte zu auftragsbezogenem „internen Crowdsourcing“ gedrängt werden. Man stelle sich einen Kundenauftrag vor, der zwar das Ziel anvisiert, aber den technischen Umsetzungsweg offen lässt. Flexible agile Teams sollen dann innerhalb des Unternehmens Wissen abschöpfen, um ergebnisorientiert neue Lösungen zu ermöglichen. Damit wäre „internes Crowdsourcing“ nicht mehr freiwillig und kreativ, sondern angeordnet und zeitlich orientiert.

Das „interne Crowdsourcing“ hat mehrere Gesichter. Sowohl die freiwillige Variante wie die verpflichtende Vorgehensweise sollten über mitbestimmte Betriebsvereinbarungen (BV) geregelt werden. Gut ausgehandelte BVs können mit Hilfe des „internen Crowdsourcing“ (IC) neue Bausteine hin zu einer möglichen Humanisierung der Arbeitswelten liefern. Ungeregelte „IC“-Einführungen öffnen die Tür zu einer neuen Runde der Flexibilisierung von Arbeitsorganisationen.

 

Neu denken heißt interdisziplinär denken

Die zahlreichen Veranstaltungen zum Thema „Wirtschaft 4.0“, „Industrie 4.0“ oder „Arbeit 4.0“ zeigen in den meisten Fällen eine nicht unerwartete Gemeinsamkeit: Es ist das technikorientierte und oft technikzentrierte Denken. Mehr als dreißig Jahre Technikfolgenforschung und Technikfolgenabschätzung haben dagegen gezeigt, dass es in der Arbeits- und Wirtschaftswelt nichts gibt, das nur aus einem einzigen Blickwinkel heraus erklärbar ist. Diesem monokausalen Denken sollte ein Denken in Ganzheitlichkeit gegenüber gestellt werden. Auch viele gewerkschaftliche Diskurse stellen sich in diesem Sinne als noch zu eng angelegt dar.

Das Bedürfnis von Kolleginnen und Kollegen, etwas konkret Fassbares, etwas sinnlich Greifbares im Zusammenhang mit der digitalen Transformation geschildert zu bekommen, verleitet Vortragende zu einer allzu schnellen Flucht in die Technik. Technikzentriertes Denken aber ist altes Denken. Nicht die Technik stellt den Faktor von Innovationen dar, sondern die nichttechnischen Einflussgrößen entscheiden über Erfolg oder Misserfolg von Technikimplementierungen in Wirtschaft und Arbeitswelt.

Wer neu denken möchte, muss sich öffnen hin zu weiteren Aspekten und Gesichtspunkten des Wandels. Interessengeleitete Technikgestaltung benötigt die Blicke auf soziale Standards, auf Sozialpsychologie, auf Soziologie, auf Bildungswissenschaften, auf Arbeitsmedizin, auf Ethik, auf Gleichberechtigung, auf Demokratie und auf Philosophie. Wer nur über Technik reden kann, hat die Dimension des Wandels nicht verstanden.

Vor diesem Hintergrund ist die jüngste Rede des französischen Präsidenten Emmanuel Macron bemerkenswert. In seinem Statement zur französischen Strategie der verstärkten Entwicklung und Anwendung von „Künstlicher Intelligenz“ (KI) fordert er eine neue Perspektive für den KI-Aufbau. Macron will den interdisziplinären Ansatz als Basis der KI-Entwicklung unter aktiver Einbeziehung von Mathematik, Sozialwissenschaften, Technikwissenschaften und Philosophie.

In seinem Interview mit der Zeitschrift WIRED vom 31. März 2018 erläuterte er: „I want my country to be the place where this new perspective on AI is built, on the basis of interdisciplinarity: this means crossing maths, social sciences, technology, and philosophy. That’s absolutely critical. Because at one point in time, if you don’t frame these innovations from the start, a worst-case scenario will force you to deal with this debate down the line.“ Macron spricht sich für eine ethische und philosophische Gestaltung der KI-Entwicklung aus. D’accord!

Sascha Lobo hat in SPIEGEL Online Recht, wenn er von der Bundesregierung erwartet, sie möge sich an Macron in diesem Punkt ein Beispiel nehmen. Doch auch das baden-württembergische Projekt des „Cyber Valley“ zur KI-Forschung benötigt dringend zumindest eine Macron‘sche Interdisziplinarität.

 

Blockchain (1): Was ist das denn?

Wer sich mit der digitalen Transformation von Wirtschaft und Arbeitswelt beschäftigt, stolpert früher oder später über den Begriff „Blockchain“. Das Wort klingt zunächst fremd und erinnert an das Aufkommen von virtuellen Ersatzwährungen wie „Bitcoin“. Man spricht auch gern von „Kryptowährungen“, weil sich hinter der „Blockchain“ ein besonderes Modell der Organisation von elektronisch verschlüsselter (kryptografischer) Datensicherheit verbirgt.

Fachleute bezeichnen die „Blockchain“ als eine verteilte transaktionsbasierte Datenbank. Sogenannte Knoten – auch Englisch als „Mining“ (Schürfen) bezeichnet – sammeln Geschäftsvorgange (Transaktionen und Smart Contracts) und verpacken sie elektronisch zu einzelnen Blöcken. Die einzelnen Blöcke (Blocks) werden zu Ketten (Chain) aneinandergereiht. Das Verpacken der Blöcke und die Verkettung kosten Gebühren. Hier wächst ein neues Geschäftsfeld. Ein dezentrales Datenkonsistenzprotokoll garantiert eine maximale technische Sicherheit gegen Manipulationsversuche. Alles klar? Nein, natürlich nicht.

Erinnern wir uns an die alten Zeiten, als man noch mit papierenen Überweisungsformularen samt Durchschlägen zur Bank bzw. Sparkasse ging, um auf diese Weise seine Rechnungen zu bezahlen. In gemeinnützigen Vereinen und in manchen Handwerksbetrieben galt dabei häufig das „Zwei-Unterschriften-Prinzip“. Die Überweisung wurde von der Bank nur vollzogen, wenn erstens zwei Unterschriften auf dem Formular zu finden waren und zweitens die richtigen Unterschriften geleistet wurden, nämlich die, die bei der Bank zuvor hinterlegt worden waren. Damit wurden unrechtmäßige Zahlungsvorgänge gar nicht erst möglich. Der von der Bank gestempelte Durchschlag galt als Beleg für die Zahlenden. Man könnte eine solche Praxis als einen Vorgang der wechselseitigen Sicherheitsüberprüfung bezeichnen.

Die „Blockchain“ kann man – stark vereinfacht – als Modell einer solchen wechselseitigen Sicherheitsüberprüfung beschreiben. Nur ist die Zahl der geforderten freigebenden „Unterschriften“ deutlich größer und zudem gibt es eine viel größere Zahl von „Durchschlägen“. Der Vorgang wird vollständig elektronisch durchgeführt. Man stelle sich beispielhaft vor, man bräuchte für einen Geschäftsvorgang (Transaktion) zwanzig elektronische Freigaben und benötigte zudem fünfzig elektronische Belege. Um die Freigaben und die Belege sicher zu lagern, werden sie auf mehrere Dutzend unterschiedliche Server (Datenbanken) verteilt. Zugleich werden die Dateien zu Ketten aneinandergefügt. Ein autonomes Softwareagenten-System übernimmt die Durchführung der Prüfung der Richtigkeit der Zahlung, der Richtigkeit der Datenangaben der Personen und der Daten des Adressaten des Geldtransfers. Nach der Prüfung (Verifikation) vollzieht das Software-System die Verpackung der Daten in Blöcke, bündelt diese zu Ketten, weist die Zahlung an und verteilt die Dokumente auf die verschiedenen Server.

Wenn jetzt ein böswilliger Täter – so die Theorie – diesen Vorgang manipulieren wollte, müsste er alle Belege und Dokumente sowie alle Dateien samt der vielen Kettenglieder in Echtzeit gleichzeitig in derselben Weise verändern. Dieser Aufwand wäre so groß, dass eine Wirtschaftlichkeit nicht mehr gegeben ist. Das Sicherheitsprotokoll (Datenkonsistenzprotokoll) verhindert zudem das illegale Öffnen der Blöcke und der Kette sowie der Kettenglieder.

Die „Blockchain“ erhielt ihre Bekanntheit vor allem durch die Spekulationen mit elektronisch-digitalen Währungen. Der Transfer des digitalen Geldes sollte maximal sicher sein. Die Blockchain-Technologie selbst ist aber schon erheblich älter.

Auf den ersten Blick erscheint die „Blockchain“ als deutliche Verbesserung der Datensicherheit und Transaktionssicherheit im Netz. Man könnte als Privatmensch diese technische Sicherheitsinnovation vorbehaltlos begrüßen, wenn da nicht auch ungewöhnliche Rahmenbedingungen, Spielregeln und Merkwürdigkeiten zu erkennen wären.

Um die Vorgänge der „Blöcke-Kette“ elektronisch vollziehen zu können, bedarf es sehr großer Rechenpower und immenser Serverfarmen. Treiber dieser „Blockchain“-Anwendungen sind somit Unternehmen, die sehr große Rechnerkapazitäten zur Verfügung stellen können. Da fallen mittelständische Unternehmen, Handwerksbetriebe und StartUps schon mal raus. Ob sich große Investitionen in die „BlockChain“-Technologie lohnen, entscheidet sich daran, wer die Standards setzt.

Das Ringen um die Durchsetzung europäischer und globaler Standards hat längst begonnen. Neue Datenmonopole zeichnen sich ab.

 

Blockchain (2): Gesichter einer Technikinnovation

Die „Blockchain“-Technologie wurde in größerem Stil zunächst für Finanzdienstleistungen, Geld- und Währungstransaktionen genutzt. Dabei entstanden mindestens zwei große Handlungsfelder: Die „öffentliche Blockchain“ (Public Blockchain) und die „private Blockchain“.

In der „Public Blockchain“ kann sich grundsätzlich jede/r beteiligen. Insider sprechen von produktiver Anarchie. Jede/r kann – formal betrachtet – ohne Beschränkungen die Technik gegen Gebühr anwenden. Dies zieht aus Sicherheitsgründen einen hohen Rechenaufwand nach sich. Die „private Blockchain“ hat einen geringeren Rechenaufwand, da eine zentrale Instanz die Bedingungen der Nutzung autoritär festlegt. Zum Beispiel kann ein diktatorisch handelnder Staat den Kreis der Teilnehmenden begrenzen und nur ausgewählten Akteuren Zugang gewähren. Eine Kombination aus der öffentlichen und der privaten Variante ist als erlaubte Kette („Permissioned Blockchain“) auf dem Weg.

Unter Fachleuten weist die „Public Blockchain“ Vorteile wie etwa Dezentralisierung, Transparenz und Vertrauen auf. Allerdings ist der Datenschutz löchrig, da aufgrund der verteilten Datenbanken viele Akteure Leserechte haben. Vor allem aber zeigt dieser Weg eine äußerst schlechte Energiebilanz durch die hohen Energiekosten für zahllose Rechner und Server.

Das Ringen um europäische bzw. weltweite Standardisierungen hat einen Verbund großer Unternehmen (IBM, Microsoft, Daimler, Airbus etc.) zusammengebracht, die das Phänomen „Blockchain“ als weltweites OpenSource-Vorhaben unter dem Namen „Hyperledger-Projekt“ (frei übersetzt: eine Art Hauptkontobuch) neu erfinden, um diese Technik für eine Nutzung durch Industrieunternehmen sowie durch Dienstleister zu öffnen. Die „Blockchain“ soll die Wertschöpfung in Industrie und Dienstleistungen optimieren: „Blockchain“ als Service via Cloud ist somit bereits kommerziell verfügbar.

Die Anwendung der „Blockchain“-Technologie unterstreicht das Denken und Handeln in virtuellen Wertschöpfungskontexten. Eine Verknüpfung mit der Realwirtschaft und materiellen Gütern wird zunächst vermieden. Es geht primär um die Verwertung von Daten der Wertschöpfung mit Hilfe von autonomen Software-Agenten und Agenten-Systemen. Die „Blockchain“ wird infrastruktureller Bestandteil der digitalen Transformation von Wirtschafts- und Arbeitswelten.

Muss diese „Blöcke-Kette“ nicht auch der Mitbestimmung unterliegen? Ja, denn die Kette ändert Arbeitsabläufe, trägt personenbezogene bzw. personenbeziehbare Daten auf verteilte Server und kostet Arbeitsplätze.

 

Blockchain (3): Trends und Anwendungen

Die „Blockchain“ als Technik der verteilten Kontobücher (Distributed Ledger Technology DLT) verlässt den Markt der Finanz- und Währungsdienstleistungen. DLT dringt in die Realwirtschaft ein und verändert die Marktbeziehungen. Wertschöpfungsnetzwerke beginnen, sich anders zu sortieren. Möglicherweise wird die „Blockchain“ zu einem dominanten Navigationssystem des nicht nur industriellen Internets der Dinge.

In großen Konzernen wird die „Blockchain“ als techniksichere Organisation des Wareneinkaufs und der Beschaffung genutzt. Dezentrale Einkaufs- und Verkaufsbeziehungen werden durch DLT aufgewertet. Negativ kann dies bedeuten, dass nicht kompatible Lieferanten herausfallen. Positiv könnte es sich auswirken, dass die Regionalisierung des Ein- und Verkaufs erleichtert wird.

Schon taucht die Entwicklung lokaler Energiemärkte unter dem Dach der „Smart City“ als Vision auf. Sie soll zum Beispiel private Energieerzeuger (Photovoltaik auf dem Hausdach) ermächtigen den eigenen Strom dem Nachbar auf der anderen Straßenseite zu verkaufen. Die „Blockchain“ soll diesen Geschäftsvorgang voranbringen. Der Traum der Energieautarkie könnte zur Stärkung der Entscheidungsmacht von Kunden führen und die Beziehungen zu traditionellen Stromlieferanten drastisch flexibilisieren. Erste Pilotierungen auf kommunaler Gemarkung haben begonnen.

Eine Kommunalverwaltung testet die „Blockchain“ als Instrument zur Neuordnung des Anmeldewesens für den Gebrauchtwagenmarkt. Auch der Wandel der Organisation des Gesundheitswesens auf der Basis der „Blöcke-Kette“ taucht als weitere Vision auf.
Die „Chain“ bringt neue plattform- und cloudbezogene Organisations- und neue Geschäftsmodelle hervor.

Wer aber werden die Betreiber sein? Können regionale Betreiber sich gegen Banken durchsetzen? Schafft die „Blockchain“ mehr Vertrauen in die Netzsicherheit?

Eines ist sicher: „Blockchains“ benötigen und suchen Netzwerke. Reale. Technische. Virtuelle. Soziale.