W.I.R.E.
close

Denken im Nebel. Essay von Stephan Sigrist

«Wissen ist Macht!» Der englische Philosoph Francis Bacon hat mit seiner Erkenntnis bereits im 17. Jahrhundert die Grundlage der heutigen Welt beschrieben. Mit dem Siegeszug des Internets, dem gleichzeitigen Aufstieg der Wissensgesellschaft und dem damit verbundenen Wohlstand dürfte kaum jemand mehr Zweifel an der Tatsache äussern, dass die Welt heute denen gehört, die wissen, was diese prägt und steuert. Während des letzten Jahrzehnts waren wir alle Zeugen einer beispiellosen Transformation fast all unserer Lebensbereiche, die sich im Zuge der Digitalisierung teilweise oder gar radikal neu gestaltet haben. Die Beispiele sind weitreichend bekannt und bedürfen keiner weiteren Vertiefung. Sie reichen von der Neudefinition der Musikindustrie durch digitale Vertriebsmodelle über die flächendeckende Verbreitung sozialer Netzwerke bis hin zur Demokratisierung des Wissens durch die Online-Enzyklopädie Wikipedia, die Menschen rund um den Globus – losgelöst von Bildung und Herkunft – den Zugang zu Wissen eröffnet.

Die Schlüsselerkenntnis aus diesem kurzen Abschnitt der Weltgeschichte, in dem sich Wirtschaft, Gesellschaft, Politik und Wissenschaft schneller transformiert haben als je zuvor, lässt sich im Grundsatz mit dem Motto «The more, the better» zusammenfassen. Je mehr Daten – so die Erkenntnis –, desto höher die Transparenz, desto autonomer der Bürger und desto wettbewerbsfähiger die Wirtschaft.

Das Zeitalter der Kontrolle

Dies bedeutet, dass wir immer mehr Kontrolle über unsere Umwelt erlangen, indem wir sie besser verstehen und für unsere Ziele nutzen können: Für Unternehmen eröffnen sich neue Möglichkeiten von massgeschneiderten Marketingmassnahmen oder gar auf individuelle Kunden zugeschnittenen Produktsortimenten. Politiker können die Stimmung in der Bevölkerung präziser analysieren und Wähler zielgerichtet ansprechen. Und wir alle erhalten ausgeklügelte Radarsysteme, die uns schneller ans Ziel bringen und helfen, Überraschungen zu vermeiden. Gleichzeitig wächst aber auch der gesellschaftliche Anspruch, dass sich komplexe Systeme wie die Finanzmärkte, der menschliche Organismus oder selbst die Welt an sich zunehmend objektiv beschreiben lassen – alles auf Basis von fortgeschrittener Statistik.

Letztlich läutet die Hoffnung auf die nächste Generation leistungsfähiger Algorithmen auch eine nächste Stufe der gesellschaftlichen Entwicklung ein, die es ermöglichen soll, die Verantwortung von Entscheiden an eine intelligente Umwelt abzutreten. Nachdem es die Arbeitsteilung und die Dienstleistungsgesellschaft ermöglicht haben, immer mehr Dinge, die wir nicht gut können oder die beschwerlich sind – so etwa die Herstellung von Kleidung, Kochen oder das Aufbereiten von Entscheidungsgrundlagen in Unternehmen –, an Fachkräfte auszulagern, stehen Maschinen nun sogar davor, leistungsfähig genug zu sein, um uns mittels statistisch erhobener Fakten immer mehr Entscheidungen abzunehmen – vom Hauskauf über die Restaurantwahl bis hin zu medizinischen Fragen.

Jenseits des Rauschens

Diese Perspektive auf eine Welt, in der eine intelligente Umwelt unser Leben beständig optimiert und erleichtert, gilt – will man der gegenwärtigen Medienberichterstattung Glauben schenken – als sehr wahrscheinliches Szenario für unsere nahe Zukunft. Wir befinden uns also auf dem Weg in ein «Zeitalter der Transparenz» mit noch mehr Wissen und noch besserer Entscheidungskompetenz. Allerdings treten bei einer kritischen Auseinandersetzung mit den möglichen Folgen der radikalen Digitalisierung unseres Lebens auch Argumente zutage, die für eine gegenteilige Annahme sprechen. So könnte man der These von der radikalen Transparenz jene der bleibenden Intransparenz gegenüberstellen und davon ausgehen, dass sich das grosse Rauschen der Daten nicht wie erhofft in absolute Ordnung und mehr Objektivität überführen, sondern uns – entgegen der allgemeinen Erwartung – weiterhin im Nebel tappen lässt. Hierfür sprechen gleich mehrere Gründe.

Erstens setzen uns technische Faktoren Grenzen. Denn während die Kapazität von Speichermedien sich jedes Jahr verdoppelt, ist das bei der Leistung von Prozessoren, die die Daten verarbeiten, nur alle anderthalb Jahre der Fall. So wächst die Menge an unverarbeiteten Datenbergen – absolut gesehen – sogar schneller als das gewonnene Wissen. Hinzu kommt der Fakt, dass wir bereits heute mehr Daten generieren, als wir speichern können. Das Risiko, im Chaos des Datenmülls die Übersicht zu verlieren, wird also grösser.

Zweitens stehen grundsätzliche Zweifel im Raum, ob mathematische Modelle überhaupt je das Potenzial haben werden, komplexe Systeme wie die Gesellschaft, die Finanzmärkte oder das menschliche Gehirn präzise abzubilden.

Hinzu kommt, dass die wachsende Datenmenge nicht nur die Maschinen, sondern auch uns Menschen zunehmend überfordert. Denn Datenpunkte sind letztlich keine Informationen. So sind wir immer öfter kaum mehr in der Lage, mit der Datenflut in Beruf und Alltag umzugehen. Das Resultat ist der Rückgang von Konzentrationsfähigkeit, sinkende Effizienz und Kreativität sowie Stress, der immer öfter in Krankheit endet.

Drittens gerät mit der wachsenden Datenvielfalt der Glaube an Objektivität unter Druck. Denn es wird immer einfacher, wie auch immer geartete Thesen mit Zahlen zu untermauern: Wer nur lange genug sucht, findet die Bestätigung im Datenmeer. So existieren beispielsweise zahlreiche Studien, die aufzeigen, dass ein Glas Rotwein am Tag das Risiko vermindert, Herz-Kreislauf-Erkrankungen oder Depression zum Opfer zu fallen. Es finden sich aber auch genauso viele gegenteilige Belege. Statistiken reichen entsprechend nicht mehr aus, um eine Entscheidung treffen zu können. Fakten verlieren ihren Faktenstatus, Intransparenz löst sich nicht auf, sondern rückt sogar wieder stärker ins Bewusstsein als in der Vergangenheit. Als Folge gewinnt menschliche Intuition als Entscheidungsgrundlage wieder an Bedeutung.

Viertens ist unklar, ob sich Bürger im wachsenden Bewusstsein, dass jede ihrer Bewegungen überwacht und gespeichert wird, überhaupt noch authentisch verhalten und so ein Rückschluss auf ihre tatsächlichen Bedürfnisse möglich ist: Mit dem Eingreifen in das System ändert man das Verhalten und verzerrt so das Resultat.

Fünftens stellt das Phänomen des sogenannten «Overfitting» die bisherige Grundannahme der Wissensgesellschaft, dass mehr Daten auch zu mehr Transparenz und besseren Entscheiden führen, in Frage. Denn die Qualität von Auswertungen und Prognosen steigt nicht zwingend mit der Anzahl berücksichtigter Faktoren, sondern sinkt mit dieser manchmal sogar. Dies, weil die Berücksichtigung von immer mehr Parametern, die nur indirekt mit einer Fragestellung zu tun haben, die Resultate verzerren kann, anstatt sie zu präzisieren, oder gewisse Einflussgrössen durch sich doppelnde Messverfahren mehrfach erfasst und damit überbewertet werden. Beispielsweise kann ein Arzt einen Patienten mit Risiko für Schlaganfall anhand ein paar weniger ausgewählter Informationen besser diagnostizieren als aufgrund der gesamten Patientengeschichte.

Und sechstens besteht bei blindem Vertrauen in computergestützte Prognose- oder Kontrollsysteme das Risiko für Systemversagen. Zwar besteht die Möglichkeit, immer mehr Lebensbereiche von Bildung über Ernährungsempfehlungen bis hin zur Vermögensverwaltung durch automatische Systeme zu steuern. Weil Daten und Algorithmen aber letztlich immer nur Annäherungen bleiben und nicht die Realität selber abbilden sowie simulieren können, haben sie Grenzen. Ein Beispiel, wo Algorithmen an Grenzen stossen, sind Börsencrashs, die durch den Sekundenhandel von autonomen Tradingprogrammen verursacht werden. Vor allem aber unterläuft der flächendeckende Einsatz von automatisierter Steuerungssoftware die Notwendigkeit, Vielfalt zu generieren, weil sich das Unerwartete, das Neue und nicht Vorhersehbare nicht durch Algorithmen erzeugen lässt.

Es zeigt sich also: Wenn wir die Welt zunehmend in einem Detailgrad erfassen, der der Realität selbst entspricht, werden wir davon kaum bessere Entscheidungsgrundlagen ableiten können. Die Datengesellschaft führt sich also quasi selbst ad absurdum.

Die Kraft der Intransparenz

Der Ausblick auf ein Szenario, in dem sich der Glaube an Objektivität zunehmend auflöst und Intransparenz vorherrscht, erscheint zugegeben zwar wenig wünschenswert. Doch ein Leben jenseits von Objektivität und Transparenz eröffnet auch Chancen, die vielleicht gar dazu beitragen, dem Ideal der Aufklärung – also dem «Ausgang des Menschen aus seiner selbst verschuldeten Unmündigkeit» – einen Schritt näher zu kommen als alle Datenauswertungsformeln.

Zunächst führt die Annahme, dass sich die Gesamtzusammenhänge der Welt nicht mit Algorithmen beschreiben lassen, zur Gewissheit, dass sich die Kontrolle auf Teilsysteme beschränken wird. Die Gefahr für die Entstehung totalitärer Systeme reduziert sich, die individuelle Freiheit der Bürger bleibt auch in Zukunft – trotz Datengesellschaft – erhalten.

Vor allem aber zwingt uns der Verlust der gefühlten Objektivität weiterhin oder sogar wieder vermehrt als bisher, selbst zu denken. Es wird nur in spezifischen Fällen möglich sein, Entscheidungen an unsere digitale, semi-intelligente Welt abzugeben. Wir können uns zwar auf clevere Parkleitsysteme oder digitale Medikamentenempfehlungen verlassen. Wenn es aber darum geht, Gesamtzusammenhänge zu erkennen, dürfte unser eigener Verstand auch in Zukunft unverzichtbar bleiben. Dies nicht zuletzt, weil es unser Gehirn schafft, mit Erfahrung respektive «Intuition» Zusammenhänge zwischen Dingen herzustellen, auf die ein Computer nicht kommen würde, weil sie sich einer programmierbaren Logik oder Mustererkennung entziehen.

Weiter tragen die Grenzen von Algorithmen auch dazu bei, Vielfalt zu erhalten und damit eine wichtige Grundlage für Innovation zu sichern. Prognosemodelle, die rein auf Logik und Rationalität basieren, führen letztlich zu einer Angleichung der Perspektiven. Unwahrscheinliche Entwicklungen werden ausgeklammert. Dabei sind es in der Realität der Produktentwicklung – genauso wie in der Evolution – oftmals Fehler, die zum Fortschritt beitragen. Je weniger unser Leben durch Algorithmen geprägt ist, desto grösser ist die Wahrscheinlichkeit für Fehler, die zwar in der Buchhaltung nicht wünschenswert sind, für Innovation aber allemal.

Zurück zum Analogen

Der Aufstieg der Datengesellschaft ist dessen ungeachtet unaufhaltsam. Daten werden – wenn auch vielleicht nicht im Grossen, so mit Gewissheit im Kleinen – unseren Alltag in Zukunft stärker denn je prägen. Als Konsequenz gilt es, für die Gesellschaft, für Unternehmen und vor allem für uns alle Strategien zu entwickeln, die helfen, mit der Datenflut umzugehen. Eine vollständige Abkehr von der digitalen Welt erscheint dabei weder realistisch noch sinnvoll. Vielmehr gilt es, Chancen und Risiken der Datengesellschaft kritisch zu reflektieren und zu überlegen, wo automatisierte Analysen von grossen Datenmengen tatsächlich zu besseren Entscheidungen beitragen können und wo menschliche Entscheidungskompetenz und Vernunft weiterhin gefragt sind.

Unternehmen, aber auch die Politik müssen sich darauf einstellen, dass ihre Glaubwürdigkeit nicht mehr allein durch Fakten belegbar sein wird, weil diese ja beliebig zitierbar sind. Folglich werden Werte und Ethik in der Positionierung und der Kommunikation gegen aussen wieder vermehrt an Bedeutung gewinnen.

Darüber hinaus gilt es, dem Wert der Daten gerecht zu werden und Konzepte zu ersinnen, die einerseits private Daten besser schützen und andererseits Bürgern im Austausch gegen den Zugang zu ihren Daten adäquate Leistungen zur Verfügung stellen. Das Projekt der Schweizer HealthBank beispielsweise will Gesundheitsdaten der Bevölkerung sicher verwahren und diejenigen Nutzer, die ihre Daten der Forschung zur Verfügung stellen, finanziell entschädigen.

Wir selbst können uns dafür entscheiden, der digitalen Welt den Rücken zu kehren und den Weg zurück in die analoge Realität anzutreten. Ein einfacher Schritt dahin bestünde etwa darin, «digitalen Selbstmord» zu begehen: Die Internetseite Seppukoo ermöglicht es – in Anlehnung an den «seppuku» genannten rituellen Selbstmord japanischer Samuraikrieger –, effizient sämtliche Einträge in sozialen Netzwerken zu löschen. Etwas alltagstauglicher ist es aber wohl, sich Kompetenzen anzueignen, die helfen, sich in der zunehmend datenbasierten Umwelt zurechtzufinden und entscheidungsfähig zu bleiben. Hierzu gilt es beispielsweise, das bewusst selektive Wahrnehmen und Ausblenden zu erlernen, genauso wie das Pause-Machen, um wieder besser erkennen zu können, was wirklich wichtig ist und was nicht. Zudem gilt, der Verführung der Statistiken zu widerstehen und Denken losgelöst von harten Fakten zu fördern. Dies bedeutet auch, Entscheide bewusst selbst zu fällen und der Verführung zu widerstehen, diese auszulagern. Nur so bleibt uns die Fähigkeit erhalten, Muster zu erkennen und Beobachtungen aus unterschiedlichen Einflussbereichen miteinander zu verknüpfen. Übergreifend gilt es, dem Tenor des «Mehr ist besser» die alte Weisheit des «Weniger ist mehr» gegenüberzustellen und unsere Innovationskraft nicht primär dahin zu lenken, auf Teufel komm raus immer noch mehr Daten zu generieren, sondern dahin, den Menschen oder besser noch seinen – zum Glück nicht immer nur der Logik gehorchenden – Verstand künftig in den Mittelpunkt der Datengesellschaft zu stellen.

 

Stephan Sigrist ist Gründer und Leiter von W.I.R.E. und beschäftigt sich seit vielen Jahren mit Entwicklungen der Life Sciences sowie mit langfristigen Trends in Wirtschaft und Gesellschaft. Zudem ist er Autor zahlreicher Bücher, berät Unternehmen und politische Institutionen in strategischen Belangen und ist regelmässiger Referent auf internationalen Tagungen.

 

© 2024 W.I.R.E. - Web for Interdisciplinary Research and Expertise
mrks.ch - professional web work zurich