Diese 16 Minuten sparen Ihnen bis zu 8 Stunden
Für Ihren individuellen Wissensvorsprung haben wir hier 2 getAbstract-Zusammenfassungen (2 Bücher mit insgesamt 413 Seiten) zum Thema recherchiert und praktisch eingeordnet. Hätten Sie diese Arbeit selbst übernommen, wären Sie nicht weniger als 480 Minuten (ungefähr 8 Stunden) beschäftigt gewesen. Erfahren Sie mehr.

„Wir brauchen mehr Datenkompetenz bei Mitarbeitenden – und vor allem in der Führung.“

Mangelndes statistisches Wissen in Firmen sorgt für Produktivitätseinbußen – und das auf allen Ebenen. Wie essenziell diese Kompetenz ist und warum ein neuer Data Scientist nicht alle Probleme löst, erklärt die Statistik-Expertin Katharina Schüller.

„Wir brauchen mehr Datenkompetenz bei Mitarbeitenden – und vor allem in der Führung.“

Frau Schüller, Sie und Ihre Co-Autoren haben ein witziges und zugleich lehrreiches Buch über das Interpretieren von Studien und Daten geschrieben. Würden Sie sagen, dass ein gesellschaftlicher Mangel an statistischem Wissen besteht?

Katharina Schüller: Oh ja. Der Schriftsteller Herbert George Wells hat schon vor langer Zeit gesagt: „Wenn wir mündige Bürger in einer modernen technologischen Gesellschaft möchten, dann müssen wir ihnen drei Dinge beibringen: Lesen, Schreiben und statistisches Denken, das heißt den vernünftigen Umgang mit Risiken und Unsicherheiten.“ Dabei geht es um mehr als um Kopfrechnen oder mathematische Funktionen. Viel wichtiger ist, ob man in der Lage ist, Daten richtig zu lesen und zu verstehen, was sie von der Wirklichkeit abbilden – und was eben nicht.

Woran machen Sie fest, dass der Mangel besteht?

In der Pandemie haben wir das sehr deutlich gesehen. Menschen wussten nicht, was eine Inzidenz ist oder was genau Fallzahlen bedeuten oder was man daraus ableiten kann usw. Nicht nur die Politik, sondern auch Medien und Bürger in sozialen Medien sind mit Begriffen und Zahlen sehr chaotisch umgegangen. Dabei sollte der Umgang mit Risiken möglichst objektiv sein – und nicht total angstgesteuert. Ein passendes und gut belegtes Beispiel dazu ist auch 9/11: Nach dem Anschlag sind die Menschen aus Angst vor Unglücken deutlich weniger geflogen – wodurch allerdings die Zahl der Verkehrsunfälle enorm gestiegen ist. Wir Menschen tun uns unglaublich schwer damit zu verallgemeinern und Risiken richtig zu bewerten, Daten richtig einzuordnen. Oder eben genau nicht darauf reinzufallen, wenn wir mit Zahlen auf die eine oder andere Art manipuliert werden, absichtlich oder unabsichtlich.

Image of: Grüne fahren SUV und Joggen macht unsterblich
Zusammenfassung (Buch)

Grüne fahren SUV und Joggen macht unsterblich

Warum viele in den Medien kursierende Statistiken purer Unsinn sind – und wie Sie das erkennen.

Katharina Schüller, Thomas Bauer, Gerd Gigerenzer und Walter Krämer Campus Verlag
Zusammenfassung ansehen

Rührt diese mangelnde Fähigkeit lediglich daher, dass wir kein gutes statistisches Wissen besitzen?

Nicht nur. Auch die Angst vor Unbekanntem spielt eine Rolle.

Angst haben wir vor allem vor Gefahren, die wir nicht einschätzen können, die uns aber nahe erscheinen.

Katharina Schüller

Und gerade Krankheiten oder Terrorismus, also Dinge, bei denen wir nicht das Gefühl haben zu wissen, wie gefährdet wir sind und wie wir uns schützen können, bereiten uns Mühe. Wir Menschen sind in der Lage, von wenigen Beobachtungen sehr schnell, sehr intuitiv Schlüsse zu ziehen, etwa beim Betreten eines Raums sofort zu merken, dass irgendetwas komisch ist. Das kann eine künstliche Intelligenz zum Beispiel nicht: Machine Learning braucht viele Daten, um darin Muster zu erkennen. Wir können schon aus zwei, drei Beobachtungen Schlüsse ziehen und extrapolieren.

Eigentlich eine tolle Fähigkeit, meinen Sie?

Ja. Sie sichert unser Überleben seit 100 Millionen von Jahren. Allerdings führt sie auch dazu, dass wir manchmal vorschnell Schlüsse ziehen und falsche Entscheidungen treffen, weil wir uns auf die Heuristiken, die uns im täglichen Überleben helfen, in längerfristigen oder komplexeren Angelegenheiten nicht verlassen können. Vielleicht ist es deswegen so schwer, statistisches Denken zu vermitteln – es erscheint so fremd und so weit weg vom Alltag.

Hat dieser Mangel an statistischem Wissen auch größere Auswirkungen, etwa auf die Gesellschaft?

Natürlich. Er kann zu schlechten politischen Entscheidungen, schlechten Gesetzen, Diskriminierung, durchaus auch zu Spaltung und Extremismus führen. Ein aktuelles Beispiel ist der mediale Umgang mit dem Feuerwerk-Chaos in Berlin. Da war überall zu lesen: „Von den 145 Festgenommenen waren die meisten Deutsche.“ Es gab zwar mehr Festgenommene deutscher Nationalität als von jeder einzelnen anderen, zusammengefasst waren es jedoch 100 „Ausländer“ und 45 Deutsche. Aber natürlich stand hinter dieser Aussage eine bestimmte Botschaft. Auch wenn die Absicht der Verantwortlichen vielleicht ganz gut war, nämlich mal davon wegzukommen, die Schuld vorschnell bei den „bösen Ausländern“ zu suchen, ging der Schuss total nach hinten los, weil das so offensichtlich gemacht wurde. Und das sehe ich als große Gefahr: Dass gerade politische Probleme oft zu schnell in einfache Zahlen gepackt werden, die der Komplexität der Probleme nicht gerecht werden. Denn das führt am Ende dazu, dass sich viele Menschen manipuliert fühlen – und das zu Recht. Misstrauen wird geschürt, wo es eigentlich wichtig wäre, dass man sich auf eine professionelle Berichterstattung verlassen kann.

Nun haben Sie eben die künstliche Intelligenz erwähnt. Zu Ihren Spezialgebieten in der Unternehmensberatung gehören auch Data und AI Literacy. Die Debatte um den Einsatz von künstlicher Intelligenz ist gerade ein heißes Thema. Hier werden die wildesten Zahlen und Prognosen zur KI-Treffsicherheit herumgereicht. Wo sollten wir Vorsicht walten lassen?

Gerade bei neuen Technologien müssen wir stärker hinterfragen und uns bewusst werden, dass wir ihnen nicht blind vertrauen dürfen. Ein interessantes Beispiel zu Ihrer Frage ist die aktuelle Debatte um eine potenzielle Kontrolle von Chatverläufen, die in der Europäischen Kommission und jetzt auch in Deutschland wieder an Fahrt gewinnt. Dabei heißt es, neue Algorithmen seien in der Lage, nur anhand von Chatprotokollen mit mindestens 99,9-prozentiger Wahrscheinlichkeit – der Fachbegriff lautet Spezifität – die kritischen Nachrichten herauszufiltern. Klingt nach einer sicheren Sache, oder? Allerdings: In Deutschland gibt es im Verhältnis zur Gesamtbevölkerung glücklicherweise relativ wenige Terrorverdächtige oder potenzielle Gefährder, und auch nur einen sehr geringen Anteil an Chatnachrichten, die jetzt beispielsweise Gewalt gegen Kinder verherrlicht. Und genau hier sehen wir das Problem:

Auch eine sehr kleine Falsch-positiv-Rate kann am Ende dazu führen, dass auf sehr wenige echte Treffer viele falsche kommen.

Katharina Schüller

0,1 Prozent sind bei Millionen täglicher Nachrichten immer noch Tausende falscher Treffer. Das hat zum einen zur Folge, dass Behörden dadurch stark belastet werden. Und zum anderen, dass sehr viele Menschen zu Unrecht in den Verdacht geraten, Straftäter zu sein! Gerade bei Themen wie Gewalt gegen Kinder oder Kinderpornografie ist das natürlich sehr heikel. Denn ein solcher Verdacht vernichtet schnell mal Existenzen – auch wenn er unbegründet war.

Gerade gibt es einen Hype um ChatGPT, und viele Manager neigen in ihrer Euphorie dazu, lange überfällige und deshalb nun sehr überhastete Digitalisierungsmaßnahmen einzuleiten – selbst dort, wo kaum Wissen zur KI und ihrer Nutzung vorhanden ist. Wie gefährlich ist das Ihrer Meinung nach?

ChatGPT ist ein super Beispiel, weil es von vielen als der Durchbruch schlechthin wahrgenommen wird. Ja, was es kann, ist sensationell. Aber solche Versuche gibt es schon lange, Chatbots schon seit Ewigkeiten. Eine kurze Basisinformation zu KI: Es gibt grob gesagt zwei Arten von KI: Die eine ist die generative KI und die andere ist die prädiktive KI. Bei der prädiktiven KI geht es darum, dass ich einen Datenpunkt bewerte. Das würde etwa passieren, wenn Chats als „verdächtig“ oder „unverdächtig“ klassifiziert würden. Dabei lässt sich am Ende exakt messen, wie oft man richtiggelegen hat. KI neigt aber oft zur Überanpassung und suggeriert eine Genauigkeit, die tatsächlich gar nicht höher ist als die klassischer statistischer Prognosemodelle. Wenn also der Manager seine Arbeit richtig macht, hat er vom prädiktiven KI-Einsatz aktuell nur in seltensten Fällen einen echten Mehrwert, aber sicher enorme Kosten um die damit einhergehende transformationale Unsicherheit.

Und bei der generativen KI?

Bei der generativen KI ist es sehr viel schwerer zu messen, wie gut sie ist, weil sie auf einem interaktiven Prozess basiert. Dabei ist nicht ganz klar, ob das, was mir der Chatbot schickt, richtig oder brauchbar ist. Natürlich kann man von jetzt an einfach journalistische Arbeit oder das Schreiben von Studien an ChatGPT abgeben. Aber wie viel Innovation ist dann noch drin? Wie viele ungewöhnliche Assoziationen, die bisher noch nicht von anderen Leuten zigfach gemacht worden sind und deswegen von einem Chatbot im Internet eben nicht gefunden werden können? Denn generative KI liefert die Antwort, die am wahrscheinlichsten zu meiner Frage passt, also diejenige, die in vergleichbaren Situationen am häufigsten genannt wird. Das ist das Gegenteil von innovativ, das ist reproduktiv.

Take-aways:

  • In der Gesellschaft herrscht ein Mangel an statistischem Wissen, was an schlechten politischen Entscheidungen, verzerrten Darstellungen in Medien und einer oftmals falschen Einschätzung von Risiken zu sehen ist.
  • Sowohl Mitarbeitende als auch Manager brauchen mehr Datenkompetenz, um produktiver zu werden und die Mitarbeit von Spezialisten besser zu nutzen.
  • Bei Statistiken sollten Sie immer darauf achten, wonach bei der Erhebung der Daten überhaupt gefragt wurde, und hinterfragen, wie man ein zugrunde liegendes Problem anders fassen könnte.

Also müssen wir uns jetzt einfach mit unoriginellen Artikeln oder faden Studien zufriedengeben?

Vielleicht brauchen wir neue Benchmarks, an denen wir Arbeiten oder Texte messen. Aber dazu müssen wir uns auch überlegen, wie wir Kreativität messen wollen oder generell die menschlichen Kompetenzen, die ein Chatbot nicht ersetzen oder reproduzieren kann. Ich glaube, dass der KI-Boom eine Chance sein kann, den Wert dessen, was uns zu Menschen macht, besser zu erkennen, zum Beispiel echte Empathie, Kreativität, die Fähigkeit, neue Brücken zu bauen. Also kreative Wege zwischen A und B zu finden, wenn man vielleicht noch nicht mal weiß, dass man nach B sucht. All diese Fähigkeiten sollten wieder einen höheren Stellenwert bekommen.

Wir haben jetzt schon ein bisschen übers Management gesprochen. Wie groß ist der Schaden bei mangelndem statistischem Wissen auf dieser Ebene bzw. wie groß wäre der Nutzen, wenn Führungskräfte sich dahingehend besser weiterbilden würden?

Als Unternehmensberaterin sehe ich immer wieder, dass das größte Problem darin besteht, bei der Erhebung von Daten den Gesamtprozess im Blick zu behalten. Also sich im Klaren zu sein: Was will man mit den Daten, die man erhebt, erreichen? Wer nutzt sie später und welche Qualität müssen sie dazu haben? Und umgekehrt: Wo kommen die Daten her, auf deren Basis ich meine Entscheidungen treffe? Das alles sind Dinge, die auf Managementebene geklärt sein müssen. Die Chancen, aber auch Limitationen gewisser Daten müssen erkannt werden. Immer wieder hört man, dass in den meisten Unternehmen 90 bis 95 Prozent der verfügbaren Daten überhaupt nicht genutzt werden. Das heißt aber nicht, dass das alles Datenschätze sind. Gute Daten zu finden gleicht eher der Suche nach Gold an einem Flussbett. Ich habe immer so ein bisschen meine Probleme damit, wenn im Management darüber gesprochen wird, dass man jetzt „datenbasierte Entscheidungen“ treffen muss. Denn es geht bei guten Entscheidungen nicht nur um die Daten, sondern eben auch um Markteinschätzungen, um Erfahrungswissen, um nicht zuletzt auch darum zu wissen, wie man die Daten zu bewerten hat.

Daten sprechen nicht für sich, sondern müssen immer eingebettet werden: im Kontext des Unternehmens und im Kontext des Managements.

Katharina Schüller

Man kann es eigentlich mit Kochen vergleichen. Oftmals ist der Ansatz bei Data-Science- bzw. Machine-Learning: Ich gucke in meinen Kühlschrank und schaue, was alles drin ist, und dann mache ich irgendwas daraus. Aber eigentlich muss es ja darum gehen – und das ist doch die Kunst des Managements –, sich vorher zu überlegen: Was will ich heute Abend auf den Tisch stellen, was brauche ich dafür und wie nutze ich die Ressourcen, die ich da habe, möglichst effizient? Dass man sich nicht einfach sinnlos Dinge neu kauft, sondern genau das dazuholt, was für ein Ziel noch benötigt wird. Das alles wird im Management oft vergessen.

Sind vielleicht auch Mitarbeitende mit mehr Datenkompetenz die besseren Mitarbeitenden? Etwa weil sie Risiken besser einschätzen und mit Unsicherheiten besser umgehen können, also resilienter sind?

Absolut. Es gibt auch Studien, die besagen, dass mehrere Tage pro Jahr dadurch verloren gehen, dass Mitarbeitende nicht die nötige Statistik- oder Datenkompetenz besitzen. Meist ist die Angst vor dem Umgang mit neuen Technologien dafür verantwortlich. Oder weil Leute ewig damit beschäftigt sind, den richtigen Umgang zu erlernen. Data Scientists in Unternehmen verbringen 60 bis 80 Prozent ihrer Zeit damit, schlechte Daten aufzubereiten. Und das ist einfach sehr viel Arbeitskraft, die verloren geht – vor allem dann, wenn Unternehmen gar keine Datenwissenschaftler haben und Ungelernte diesen Job übernehmen müssen. Im Kontext des Fachkräftemangels sollten Unternehmen hier hellhörig werden:

Data Scientists sind sehr gefragt. Sie kommen oft topmotiviert und ausgebildet von der Uni, sind aber dann in Unternehmen nur damit beschäftigt, Fehler zu finden. Sie sortieren, salopp gesagt, Schrott. Das macht keinen Spaß. Und es kann dazu führen, dass sie sich reizvollere Arbeit suchen.

Katharina Schüller

Also ja, wir brauchen mehr Datenkompetenz bei Mitarbeitenden – und vor allem in der Führung. Um im Arbeitsalltag voranzukommen, aber auch, um davon abhängige Technologien besser zu beherrschen und statistischen Unsinn zu vermeiden. Wir alle sollten Datensets und davon Abgeleitetes gemeinsam so aufbereiten können, dass die Wirklichkeit damit auch tatsächlich gut abgebildet ist – und nicht völlig verzerrt.

Können Sie das an einem Beispiel konkretisieren?

Ja. Wir alle nutzen Microsoft Excel. Was aber die wenigsten von uns wissen: Excel verkürzt Achsen bei Darstellungen automatisch. So sehen eigentlich kleine Unterschiede etwa von 90 zu 90,5 oder 91 plötzlich riesig aus – aber eben nur, weil die Achse bei 89 beginnt. Solche Dinge müssen Mitarbeitenden auffallen. Ansonsten passiert es schnell, dass falsche Dinge kommuniziert werden, sowohl dem Management als auch nach außen.

Image of: So lügt man mit Statistik
Zusammenfassung (Buch)

So lügt man mit Statistik

Statistiken können kompakt informieren – aber auch fatal in die Irre führen.

Walter Krämer Campus Verlag
Zusammenfassung ansehen

Was sind denn Ihrer Erfahrung nach die häufigsten Missverständnisse in der Interpretation von Statistiken?

Der Klassiker ist, Korrelation mit Kausalität zu verwechseln. Nur weil zwei Dinge gleichzeitig oder kurz nacheinander passieren, heißt das nicht, dass das eine das andere verursacht. Ein schönes Beispiel: Die Anzahl der Störche und die Anzahl der Geburten haben sich über die letzten 100 Jahre fast parallel verringert. Aber das ist natürlich kein Beweis dafür, dass der Storch die Babys bringt. Vielmehr hat es etwas mit der zunehmenden Industrialisierung und Bildung in Deutschland zu tun. Die beiden Entwicklungen korrelieren also nur zufällig aus ähnlichen Gründen. Ein weiterer typischer Fehler ist, dass die Datenbasis außer Acht gelassen wird. Also dass etwa beim Berechnen von Prozentwerten nicht berücksichtigt wird, worauf man sich eigentlich bezieht. Vielen Menschen ist nicht unmittelbar klar, dass große Prozentwerte auch einfach zustande kommen können, weil die Ausgangsbasis klein ist. Das passiert ganz oft im Bereich der Medizin oder auch in der Ernährungsforschung. Da könnte es etwa heißen: „Wenn Sie jeden Tag Salami essen, erhöht sich Ihr Risiko für eine bestimmte Form von Krebs um 20 Prozent.“ Die Basis dafür könnte allerdings sein, dass statt 10 von 100 000 dann 12 von 100 000 diese Form von Krebs kriegen. Das sind 20 Prozent und klingt erst mal sehr viel, aber tatsächlich hat sich die unmittelbare Bedrohung für den Einzelnen nur minimal verändert.

Es gibt ja auch viele absichtlich eingefärbte Statistiken, die für bestimmte Zwecke genutzt werden sollen. Kann man die als solche erkennen lernen?

Ja, es gibt ein paar Grundprinzipien, denen man folgen kann. Am Anfang steht die Frage: Wie entsteht eigentlich Wissen, oder wie entstehen Entscheidungen aus Daten? Kurz: Wie sollte gemessen werden? Diese Fragestellung am Anfang einer Datenerhebung hat logischerweise einen riesigen Einfluss darauf, welche Daten ich am Ende erhebe und wie ich ein Problem betrachte. Um wieder auf die Pandemie zurückzukommen: Wenn es darum geht, ein geeignetes Pandemiemanagement zu betreiben, dann könnte sich vermutlich schnell die Frage nach den unmittelbaren gesundheitlichen Folgen stellen. Dazu betrachtet man also Fallzahlen, Hospitalisierungen oder Todesfälle. Doch durch die Entscheidung, sich auf diesen Aspekt der gesundheitlichen Folgen zu konzentrieren, sieht man eben vieles andere nicht.

Wir müssen uns nur mal vorstellen, wir hätten jeden Tag Nachrichten dazu gehabt, wie viele Menschen in der Pandemie ihren Job verloren haben oder an Depressionen erkrankt sind oder wie viele Unterrichtsstunden ausgefallen sind – das Bild der Pandemie wäre ein völlig anderes gewesen und vielleicht hätte man auch andere Maßnahmen ergriffen.

Katharina Schüller

Das heißt: Wenn wir am Anfang falsche oder limitierte Fragen stellen, erzeugt das auch blinde Flecken. Und die verdunkeln sich irgendwann sogar selbst. Denn wenn wir gewisse Daten von Anfang an nicht haben, können wir auch nicht beobachten, wie sie sich entwickeln. Das heißt: Suchen Sie immer zuerst, wonach überhaupt gefragt wird, und fragen Sie sich, wie man das Problem noch anders fassen könnte.

Und dann?

Dann geht es darum herauszufinden, wo die Daten herkommen und wie sie erhoben worden sind: War es eine Umfrage? Sind die gemessenen Daten repräsentativ? Dabei gilt auch:

Mehr Daten heißt nicht mehr Wissen.

Katharina Schüller

Wenn zwar jeden Tag Hunderttausende von Tests durchgeführt werden, aber die Leute, die die Tests machen, nicht repräsentativ für die Bevölkerung sind, weiß man schlussendlich auch nicht mehr. Als Nächstes stellt sich auch die Frage, wie die Daten ausgewertet wurden: Sind sie überhaupt miteinander vergleichbar? In welchen Kontext wurden sie gesetzt? Das ist für mich ein ganz wichtiges Element von Statistikkompetenz: zu verstehen, dass Daten immer in einem Kontext stehen und dass Daten und die Bedeutung der Daten eben nicht das Gleiche ist. Fragen Sie grundsätzlich immer: Kann man es auch anders sehen?

Was kann man grundsätzlich tun, um die eigene Datenkompetenz zu verbessern?

Im Internet gibt es dazu unglaublich viel kostenfreies Material, aber zwei Tipps meinerseits wären:

  • Eine App, an der ich mitgearbeitet habe, namens Stadt, Land, Datenfluss, herausgegeben vom Deutschen Volkshochschulverband – und kostenlos. Die App zeigt spielerisch in einer virtuellen Stadt, wie Daten und Statistiken überall schon unser Leben beeinflussen, im Bereich Wohnen, Mobilität, Arbeit, Gesundheit etc., immer anhand von kleinen Geschichten und einem Quiz. Die kann man sich runterladen und durchspielen, jeden Tag fünf Minuten, und lernt dabei eine Menge.
  • Eine andere Möglichkeit ist der KI Campus. Da gibt es verschiedene Schulungen und Kurse, um sein Wissen und Verständnis aufzupolieren, etwa zu Data Informed Decision Making in the Pandemic, der sich vor allem an Journalisten oder Politiker richtet und aufzeigt, wie man zu besseren Entscheidungen kommen kann, gerade wenn man mit Zielgruppen zu tun hat, die sehr konfligierende Interessen haben.

Über die Autorin:
Katharina Schüller ist Geschäftsführerin und Gründerin der Statistikberatung Stat-up sowie Vorstandsmitglied der Deutschen Statistischen Gesellschaft.  

Wie das Journal Ihnen Zeit spart
Lesezeit
16 Min.
Die Lesezeit für diesen Artikel beträgt etwa 16 Minuten.
Gesparte Zeit
8 Std.
Mit der Lektüre sparen Sie bis zu 8 Stunden Recherche- und Lesezeit.
Recherchierte Abstracts
2 Für diesen Beitrag haben wir die praktischsten Einsichten aus 2 Zusammenfassungen zum Thema herausgesucht.
2 Wir haben 2 Bücher mit 413 Seiten für diesen Artikel gelesen und zusammengefasst.
Share this Story