Einsichten gewinnen

Wenn man versucht, aus Daten EInsichten zu gewinnen, tappt man leicht in eine Objektivitätsfalle.

In unserer westlichen Kultur ist es zur Gewohnheit geworden, Daten als objektiv, wahrheitsgetreu und zuverlässig zu betrachten. Wir „wissen, was wir wissen“, wir „sehen die Dinge mit unseren eigenen Augen“, wir „lassen uns nicht so leicht täuschen“ und wir greifen oft auf verfügbare Daten als Beweis für diese Aussagen zurück. Mittlerweile spielen Daten eine wichtige Rolle für den Umgang mit Unsicherheit in Unternehmen: Der Einsatz von datengesteuertem Design oder die Schaffung einer datengesteuerten Kultur stehen ganz oben auf der Agenda von Unternehmen.

Doch die Umwandlung von Daten in Erkenntnisse braucht Zeit. Ganz gleich, ob es um die Zeit geht, die Ihr BI-Team für die Erstellung eines Dashboards für Ihre vierteljährlichen Verkaufskennzahlen aufwenden muss, oder ob Sie einen Rechner verwenden, um den ROI Ihrer neuesten Werbekampagne zu ermitteln – bei der Ableitung von Erkenntnissen muss der Schwerpunkt auch auf dem Vorgang der Ableitung liegen, nicht nur auf den gewonnenen Erkenntnissen selbst. Einsicht zu gewinnen ist eine wertende Aktivität, nicht eine integrierte Eigenschaft des zugrunde liegenden Datensatzes.

„Rohdaten sind ein Widerspruch in sich“, schreibt Cennydd Bowles in seinem Buch „Future Ethics“. Es stimmt: Alle Daten, mit denen wir arbeiten, wurden zu einem bestimmten Zweck erhoben, haben eine bestimmte Körnigkeit und erfordern präzise technische Mittel zur Erfassung. Seit ich begann, Ende der Nuller Jahre Unternehmen bei der Einrichtung des Web Analytics-Trackings für ihre Marketing-Websites zu unterstützen, konnte ich eine gewisse Besessenheit mit Rohdaten beobachten. 

Etwas war allerdings seltsam: für ziemlich viele Unternehmen war die Erfassung der Klickdaten auf ihrer Website das allererste Mal, dass sie sich nicht auf aggregierte Daten verlassen wollten (wie den oben erwähnten Verkaufsbericht oder das Dashboard für das dritte Quartal). Und ich konnte feststellen, dass sich sehr viele Produktverantwortliche und Website-Manager wirklich um die Präzision und die Integrität ihrer Datensammlungen sorgten. 

Noch seltsamer war allerdings, dass die Aktionselemente und Klick-Ereignisse, die die Manager erfassen wollten, recht spezifisch, aber im Hinblick auf Geschäftsergebnisse oder die Erfassung der Kundenzufriedenheit größtenteils bedeutungslos waren: Klicks auf einen Akkordeon-Link auf einem Startseitenbanner (was selten bis nie vorkommt), Verfolgen von Besuchen zu einer Kampagnen-Startseite (von der aus man seinerzeit lediglich zu einer Newsletter-Anmeldung gelangte. Nur wenige Leute haben überhaupt durchgeklickt, und nur eine verschwindend geringe Anzahl von Besuchern hat sich für den Newsletter angemeldet) oder wie oft Leute während ihres Website-Besuchs von der einen Produktkategorie zu einer anderen  gewechselt haben (ziemlich häufig, aber die Besuche der Produktkategorienwechsler dauerten insgesamt selten länger als zwei Minuten). 

Die aus der Verfolgung dieser einzelnen Benutzeraktionen gewonnenen Erkenntnisse wurden hauptsächlich dazu verwendet, die Existenz dieser verfolgten Elemente überhaupt zu rechtfertigen.

„Die Kampagne war erfolgreich, weil [über 18.000] Personen auf den Link geklickt haben“ (das Klicken auf einen Link bedeutet möglicherweise nicht viel für das Unternehmen, aber es bedeutet sehr viel für den Verantwortlichen für den Kampagnentext); „Sehr viele unserer Besucher [nämlich 10.240] haben wir im letzten Monat auf die Newsletter-Anmeldeseite geleitet“ (das Unternehmen verzeichnete in jedem Monat über eine Million organische Besuche auf seiner Website) und „Insgesamt haben sich [fast 60] Besucher neu für unsere Newsletter angemeldet“. In relativen Zahlen (die nicht genannt wurden: die Anmelderate lag bei knapp 0,5 % aller Besucher, die die Newsletter-Anmeldeseite gesehen hatten. Bezogen auf die Gesamtzahl der organischen Besuche auf der Website lag die Anmelderate bei 0,006%). Dennoch suchten die Verantwortlichen nach Aussagen, die den Erfolg ihres digitalen Unterfangens belegen sollten. Die Besessenheit mit absoluten Zahlen war damals wahrscheinlich nur eine Modeerscheinung, da zu dieser Zeit keine nennenswerten anderen konkurrierenden Reichweitenkanäle im Einsatz waren, aber das ausdrückliche Bedürfnis nach absolut genauen absoluten Daten wurde immer wieder betont.

Der Wunsch nach einer sorgfältigen Zusammenstellung von Erkenntnissen aus bereits erfassten Datensätzen hat in letzter Zeit immer mehr Arten von Objektivitätsfallen aufgezeigt; insbesondere mit dem Aufkommen des maschinellen Lernens und der damit verbundenen Verfügbarkeit verzerrter Trainingsdaten und unvollständiger Rohdaten. 

Die Frage „Wird das Modell [oder werden die Daten] korrekt sein?“ zielt zunächst auf die Dimension der Verlässlichkeit ab (“das ist das Ergebnis, das wir erreichen wollen”); dann geht es um die Formulierung  der Wahrhaftigkeit (“Ein Klick auf einen Link bedeutet, dass der Nutzer sich für das interessiert, was er jenseits des Links zu sehen bekommt”) und strahlt aus bis hin zu seiner Objektivität (“Das ist es, was wir von unseren Tools zur Überwachung und Erfassung unserer Daten voraussetzen”). 

Das Traurige ist: Wasser kocht nur unter bestimmten Bedingungen bei 100 Grad Celsius, ein Kilogramm Materie wiegt auf dem Gipfel des Mount Everest weniger als auf Meereshöhe und die Menschen verhalten sich nicht rationaler, wenn sie einen Laborkittel tragen, (oder einen Anzug, oder eine Uniform). Der Kontext, in dem etwas beobachtet wird, ist ebenso wichtig wie die Beobachtung selbst. Aber das vergessen wir schnell.

Also: Unsere Vorstellung von Daten, die ein unbestreitbares Abbild der Wirklichkeit darstellt, beruht auf einer ganzen Menge Kontext. Und unsere Vorstellung, dass Unternehmensorganisationen rein rational orientiert sind (und ihnen daher eine hohe Datenaffinität zugeschrieben wird), ist möglicherweise ebenso unzutreffend.

„Für viele Unternehmen ist eine starke, datengesteuerte Kultur nach wie vor schwer zu erreichen, und Daten sind selten die universelle Grundlage für die Entscheidungsfindung.“ war der erste Satz in der Zusammenfassung über „10 Schritte zur Schaffung einer datengesteuerten Kultur“ in einem HBR-Artikel aus dem Jahr 2020 (hier). Der Artikel fuhr fort: „[…] die größten Hindernisse für die Schaffung datenbasierter Unternehmen sind nicht technischer Natur; sie sind kulturell“. 

Ich war ehrlich gesagt erstaunt über einen solchen Artikelbeginn (ausgerechnet auf der Seite der Harvard Business Review). Der weitere Verlauf des Artikels verdeutlichte dann allerdings den Grund dafür, dass der Leser nach diesem ziemlich ergreifenden Anfang trotzdem nicht in Panik geraten sollte: „Es ist einfach genug zu beschreiben, wie Daten in einen Entscheidungsprozess einzufließen haben. Es ist weitaus schwieriger, dies für die Mitarbeiter zur Normalität oder sogar zum Automatismus zu machen – eine Änderung der Denkweise, die eine gewaltige Herausforderung darstellt.“

Diese Aussage deckt sich allerdings nicht mit meinen Erfahrungen. In der Regel sind es nicht die Daten selbst, die in die Entscheidungsfindung einfließen. Es ist die Bedeutung, die diese Daten haben. Und erstens wird davon ausgegangen, dass Daten aus der Vergangenheit eine Bedeutung für Entscheidungen haben, die sich auf die Zukunft auswirken. Folglich sind (wie Roger L. Martin betont) radikale Innovationen, für die noch keine Marktdaten vorliegen, aus der Entscheidungsdomäne auszuschließen, da jegliche Prognosen zukünftiger Umsatzentwicklungen grundsätzlich als hochspekulativ abgetan werden können.

Erkenntnisse zu gewinnen ist immer eine intellektuelle Herausforderung, keine technische. Und gerade in einer VUCA-Umgebung (einer Situation, die durch Volatilität, Unsicherheit, Komplexität und Mehrdeutigkeit gekennzeichnet ist) reicht es nicht aus, auf ein Datenelement zu zeigen (sagen wir: 3,6 Ångström) und zu behaupten: „Da haben Sie es.“ Unser Werkzeugsatz der Extrapolation, der Induktion und Deduktion ist unvollständig, da er eine komplexe Welt sehr stark reduziert. Erkenntnisse erfordern Kontext, und Kontext setzt Hypothesen über Kausalitäten voraus.

Die Technik des abduktiven Denkens, die vor allem gegen Ende des 19. Jahrhunderts vom amerikanischen Philosophen Charles Sanders Peirce weiterentwickelt wurde, kann uns eine weitaus nützlichere Möglichkeit bieten, Erkenntnisse zu gewinnen. Sie ersetzt die Frage „Was ist wahr?“ mit der Frage „Was müsste wahr sein, damit das funktioniert?“ Die Frage, unter welchen Bedingungen es sich lohnt, ein bestimmtes Unterfangen zu verfolgen, ermöglicht es, die Prämisse (die Logik) von den zugrunde liegenden Daten (der Analyse) zu trennen. In Anlehnung an einen Gedanken von Roger Martin lautet die Frage: „Was müsste wahr sein?“ (im kanadischen Original: “What would have to be true?”): „WWHTBT hilft Ihnen bei der Frage, was wir tun müssen, um die Dinge wahr werden zu lassen, die wahr sein müssten, um die Zukunft zu erschaffen.“