„Das Problem ist, dass wir immer einen Schritt zu spät sind.“
Herr Leonhard, in Technology vs. Humanity schreiben Sie, dass die Digitalisierung den Menschen umbaut. Wie meinen Sie das?
Gerd Leonhard: Digitalisierung ist keine Einbahnstraße: Zwar ist es so, dass wir als Menschen immer häufiger und versierter digitale Werkzeuge benutzen, aber sie benutzen auch uns. Die Digitalisierung baut den Menschen um, und das physisch wie psychisch. Nehmen Sie als Beispiel Implantate oder Fitnesstracking-Produkte, die Sie verwenden können, um länger und gesünder zu leben. Viele davon konnten nur dank der Digitalisierung unserer menschlichen Welt entwickelt werden, und die meisten lassen sich heute digital steuern und überwachen – bestimmen damit aber auch ein Stück weit unseren Tagesablauf.
Sie meinen: Wir interagieren bereits heute täglich mit Robotern, verlassen uns auf sie und merken es nicht einmal?
Ja. Künstliche Intelligenz unterstützt uns rund um die Uhr, Informationen zu finden und zu verarbeiten. Aber: Sie trifft gleichzeitig in den meisten Fällen eine Vorauswahl, basierend auf unserem bisherigen Handeln und Fragen. Die Zukunft wird von einem Brain-Computer-Interface bestimmt: Elektroden, Simulationen, Virtual Reality – wir Menschen verschmelzen zunehmend mit der Technologie. Und das bedeutet auch, dass wir langsam aber sicher unsere Autonomie verlieren.
Take-aways:
- Technologien sind Werkzeuge. Sie dürfen nicht das Wesen des Menschen verändern. Der Mensch muss menschlich bleiben, der Staat muss dabei unterstützen, dass das möglich ist.
- Man macht uns glauben, dass KI irgendwann alles kann, dafür müssen wir uns bewusst schützen.
- Dinge wie ChatGPT oder auch das Metaverse werden den echten Menschen nicht ersetzen – sie werden ihm, wenn er das möchte, aber Arbeit abnehmen oder darin unterstützen können.
Wir sollen also als Menschen in einer Welt voller Technik darauf achten, unsere Menschlichkeit zu bewahren. Wie gelingt uns das?
Jede und jeder muss für sich eine bewusste Entscheidung für oder gegen die Nutzung bestimmter Werkzeuge treffen. Gleichzeitig ist es die Aufgabe der Regierungen und der Politik, eine gesunde Balance zwischen der Macht der Technologie und der Macht der Menschen zu erhalten. Auch hier ein Beispiel: Sie sitzen in einem virtuellen Jobinterview vor dem Bildschirm, und während Sie sprechen, wertet die KI im Hintergrund anhand Ihrer Stimme und Ihrer Bewegungen aus, ob Sie die Wahrheit sagen. Für den Arbeitgeber ist das eine schöne Vorstellung, aber in meinen Augen ist das nicht nur rechtlich schwierig. Der Einsatz solcher Technologien gehört reglementiert und transparent gemacht – und hier ist der Staat gefragt.
Der Staat hat die Aufgabe, unsere Ineffizienz zu bewahren, wie ich gerne sage. Wir sind keine Maschinen, sondern haben Emotionen, sind menschlich. Maschinen funktionieren binär. Wir dürfen nicht zu Sklaven der Technologie werden.
Bislang wirkt das, was der Staat in dieser Hinsicht unternimmt, aber eher überhastet und unausgegoren – ein schönes Beispiel dafür sind doch die Cookie-Hinweise auf jeder besuchten Seite. 99 Prozent der Nutzer klicken die Privatsphärewarnungen einfach weg, weil sie nicht hilfreich, sondern lästig sind.
Das Problem ist, dass wir immer einen Schritt zu spät sind. Viele haben gar keine Ahnung, wie viel Power bereits hinter Suchmaschinen und sozialen Netzwerken steckt und wie viele Daten bereits über jeden von uns erfasst und verwendet werden. Ich habe beispielsweise mein Facebookprofil aufgegeben, weil Meta damit mehr Daten sammelt als die National Security Agency. Als Nutzer kannst du keinen Einfluss darauf nehmen. Auch wenn die Europäische Kommission seit Jahren an Regeln arbeitet, fehlt es an Schutz der Privatsphäre, denn die Technik ist den staatlichen und politischen Akteuren voraus und ich bin sicher, dass unser Leben zukünftig nicht nur davon beeinflusst, sondern dominiert wird, was wir über uns preisgeben. In vielen Fällen tut es das auch heute schon.
Okay, Sie haben Ihr Facebookprofil gelöscht. Was die private Nutzung angeht, sind Sie kein Einzelfall. Aber im unternehmerischen Kontext haben wir doch kaum eine Wahl, auf die Big Five – Google, Apple, Facebook, Amazon und Microsoft – zu verzichten: Von der Textverarbeitung bis zum SEO-optimierten Marketing dominieren sie, wie – und wie erfolgreich – wir arbeiten.
Definitiv. Seitdem ich mein Profil abgeschaltet habe, ist der Traffic auf meiner Website um 70 Prozent eingebrochen. Und ja, die Big Five haben Monopolstellungen, sie haben sich auf den ersten Blick „unverzichtbar“ gemacht. Gleichwohl gibt es für alles auch Alternativen. Und dieses Denken in Alternativen und Ausnahmen müssen wir weiter kultivieren. Nehmen Sie Ihre Arbeit als Journalistin: Natürlich können Sie ChatGPT produktiv nutzen, wenn Sie eine Recherche zu einem Thema machen. Wenn die KI aber den gesamten Artikel für Sie schreibt, vielleicht vorher schon Ihre Diplomarbeit, die Ihnen die Jobtür geöffnet hat, stehen da dann schnell Dinge wie Betrug, Urheberrechtsverletzungen und andere Dinge im Raum.
Oder ich höre einfach auf damit, weil mein Chef meint, die KI könne meine Arbeit ersetzen.
Da kann ich Sie und Ihre Kollegen beruhigen: ChatGPT wird den Menschen in meinen Augen nicht ersetzen, auch nicht jene, deren Tagwerk es ist, intelligente Texte zu verfassen. Denn was macht die Maschine? Sie durchsucht eine Datenbank mit Milliarden von Einträgen und antwortet wie ein stochastischer Papagei. Sie wiederholt die Informationen, mit denen sie gefüttert wurde, die „besten“ – was bei Suchmaschinen gleichbedeutend ist mit „beliebtesten“ – Treffer. Die Maschine hat keine Ahnung, wie korrekt diese Information ist, welche Quelle aktuell, vollständig oder vertrauenswürdig.
Also brauchen wir Journalisten keine Sorge habe, dass wir zeitnah ersetzt werden?
(Lacht.) Nur dann, wenn Sie eine schlechte Journalistin sind und Ihre Arbeit auf Copy-and-paste basiert. Denn: Der Mensch – egal ob Sie das sind oder Ihre Kunden und Leserinnen – muss weiterhin eruieren, wie richtig die Informationen sind, die ChatGPT liefert. Das gilt besonders für die aktuell diskutierte Demoversion, die mit Daten gefüttert wurde, die nur bis ins Jahr 2021 reichen. Wenn Sie aktuelle Antworten brauchen, werden Sie diese nicht bekommen. Und wenn Sie sie in Zukunft kriegen, weil der Datensatz zum Training aktualisiert wurde, ist es trotzdem noch so, dass Sie jeden Satz überprüfen müssen, auf Ihre Zielgruppe und Ihr Anliegen hin abstimmen, Nützliches vom Unnützen unterscheiden, und vor allem werden Sie mit einem Text, der Falsches wiedergibt, schnell Leser verlieren.
Es ist tatsächlich so, dass Antworten von ChatGPT eine Recherche oft eher verlangsamen als beschleunigen. Wie Sie sagen, die Kontrolle, welche Informationen richtig sind und welche Quelle diese haben, liegt immer noch im Verantwortungsbereich des Schreibenden.
Das ist ein guter Punkt: Der Einsatz von Textrobotern sorgt häufig dafür, dass man Dinge nur noch oberflächlich und flüchtig wahrnimmt. Wer schnell etwas wissen will, kann sich damit helfen. Wer etwas verstehen will, muss aber tiefer graben. ChatGPT wird deshalb, ähnlich wie GoogleResearch, im Bereich Wissensarbeit manche Arbeitsabläufe und Routinen verändern, mehr Wissen schneller verfügbar machen – das bedeutet aber nicht, dass sich das Gelieferte in Verständnis verwandelt. Die Technologie ist vor allem gut dafür geeignet, uns lästige Routinearbeiten abzunehmen – und zwar in sehr verschiedenen Bereichen.
Können Sie ein Beispiel nennen?
08/15-Marketingtextchen, wie sie von 90 Prozent der Unternehmen verwendet werden, sind damit schnell und prägnant erstellt, und Programmierer werden Teile ihres Codes wohl künftig ebenfalls von Large Language Models schreiben lassen. Auch wenn wir annehmen, Sie seien Maklerin und bräuchten regelmäßig Immobilienbeschriebe, die die wichtigsten Fakten zu einem Objekt darlegen, ohne gleich als langweilige Liste zu enden, ist ChatGPT eine gute Wahl und nimmt Ihnen das Standardzeug weitgehend ab. Sobald es aber um weitergehende Fragen – „Wie steht es um die Feuchtigkeit im Keller? Wer ist für das Schneiden der Hecken zuständig? Ist der Preis aufgrund obiger Antworten verhandelbar? Und wie wahrscheinlich ist es, dass man uns die Bergsicht, die wir hier mitkaufen, in den nächsten 30 Jahren verbauen wird?“ – oder anderweitigen direkten Kontakt zu potenziellen Mietern oder Käufern geht, wird es persönlich. Es geht um Vertrauen. Und da helfen Ihnen Roboter nur noch bedingt weiter.
Sie klingen dennoch ein wenig skeptisch …
ChatGPT könnte eine gigantische Krachmach- und Verzerrungsmaschine werden. Und sie wird vor allem den sozialen Netzwerken noch ordentlich zusetzen. Mit einem Klick sagen Sie dem Bot: Schreibe mir 742 Posts zum Thema „Atomkraft: Ja, bitte!“ und veröffentliche diese im Minutentakt über mein Profil auf Facebook. Also sucht und schreibt die Maschine, niemand hat aber eine Ahnung, wie wahr all das ist, was dann im Minutentakt veröffentlicht wird. Die sozialen Netzwerke sind sehr bald mit Mengen an Fake News konfrontiert, derer sie nicht mehr Herr werden. Und was hier gilt, gilt auch für alle anderen Bereiche, in denen Wissen vernetzt wird: Wenn KI und Technik immer mehr Routineaufgaben übernehmen, hat das immense Vorteile. Es hat aber auch ebenso große Nachteile, wenn der Output nicht stimmt.
Die berühmte Blackbox-Problematik, wenn es um das Thema Automatisierung geht.
Genau. Es ist toll, dass Maschinen uns heute schon langweilige oder stupide Routineaufgaben abnehmen. Und wenn Sie arbeiten wie ein Roboter, um Ihren Lebensunterhalt zu bestreiten, dann können Sie sicher sein, dass Sie irgendwann Probleme bekommen werden.
KI und Technik bedrohen aber nicht per se ‚die Arbeit‘, sondern verändern vielmehr die Art und Weise, wie wir arbeiten.
Christine Lagarde hat einmal gesagt, dass Automatisierung super fürs Business und schlecht für die Menschen ist. Dem stimme ich nur mit Abstrichen zu: Denn es wird immer Millionen Jobs geben, in denen Menschen den Robotern gegenüber Vorteile haben. Mitunter sind die sogar ziemlich überraschend.
Welche Vorteile sind das?
Nehmen Sie die Verkäuferin an der Kasse im Supermarkt. Es gibt Ketten, die setzen auf den Self-Check-out mittels Technik, weil das monotone „Über-den-Codescanner-Ziehen“ nicht zwingend von einem Angestellten erledigt werden muss. Aber viele Einzelhändler wissen, wie wichtig den Kunden und Kundinnen der persönliche Kontakt mit der Dame, dem Herren an der Kasse ist – und dass viele genau deshalb dem Laden so treu sind. Wer hier falsche Entscheidungen trifft, gewinnt wenig und verliert vielleicht sehr viel.
Und dennoch zeigt die Realität: Die Self-Check-outs werden immer zahlreicher.
Sie werden dort zahlreicher, wo sie sich für beide Seiten rechnen. Also da, wo der Mensch viel Zeit aufwenden muss, während die Maschine eine Arbeit in Sekunden erledigt. Wer seinen Einkauf aber nur einmal die Woche macht und viel Ware deshalb selbst scannen muss, wird eher eine herkömmliche Kasse aufsuchen als die engen Self-Check-outs. Wichtig ist, dass die Ersparnis für den Kunden spürbar wird – bei Zeit und Aufwand und/oder beim Preis.
Haben Sie hier auch ein Beispiel?
Grundsätzlich ist es so, dass viele „Vereinfachungen“, die die Digitalisierung bringt, die zu leistende Arbeit am Ende auf die Kunden abwälzen. Und die werden das nur so lang honorieren, wie es ihnen nützlich erscheint. Ein schönes Beispiel ist der Telekom-Bereich: Es ist abzusehen, dass in 10 Jahren rund 60 Prozent der Prozesse dort automatisiert sind. Jetzt ist aber die Frage: Gibt man diese Einsparungen auch an den Kunden weiter? Klar: KI, Technik und Digitalisierung erhöhen die Margen der Unternehmen und es fließt mehr Geld in die Kassen. Die entscheidende Frage ist aber, ob der Konsument mittel- bis langfristig davon profitiert. Und was nützen Ihnen zeitweilig riesige Margen, wenn Sie am Ende keine Kunden mehr haben?
Das gilt aber nur so lang, wie wir es nicht mit Monopolen – wie den Big Five – zu tun haben.
Sehr richtig. Wir müssen deshalb gerade an diesen Stellen aufpassen, dass wir die Technik nicht so weit hochzüchten, dass wir nicht mehr erkennen können, ob Mensch oder Maschine etwas tut. Das beste Beispiel ist hier bestimmt Facebook oder Meta, wie Zuckerberg sein Unternehmen heute nennt. Über Jahre hinweg wurde aus unseren gesammelten Daten eine gigantische Werbemaschine gebaut – das soziale Netzwerk wurde zu einer Goldesel-KI. Wir sollten Letzterer nie mehr zutrauen als uns selbst bzw. unserem Kollektiv. Es geht nicht darum, dass KI schon jetzt viel kann. Es geht darum, dass wir glauben gemacht werden, dass sie irgendwann alles kann. Das macht uns faul. Wir stellen keine Fragen mehr.
Unser größtes Problem ist deshalb nicht, dass KI uns überflügeln wird, sondern dass wir so werden wie KI.
Der Mensch bleibt also Mensch, muss aber dafür auch etwas tun?
Es wird Überlappungen zwischen Mensch und Maschine geben, und das zunehmend. Um noch einmal das Beispiel vom Anfang zu nehmen: Die aktuell so beliebten Fitnesstracker sind nur die Vorboten von Implantaten und Prothesen. Auch diese werden individueller und durch KI gesteuert werden. Hatten Sie einen Autounfall, bei dem Sie Ihre Beine verloren haben, werden diese neuen Prothesen, die Sie vielleicht sogar besser, gesünder, schneller laufen lassen, großartig sein.
Aber was machen Sie mit einem gesunden Mensch, der sagt: Ich will diese Beine!
Um diese ethischen, aber auch sozialen Fragen wird es schon sehr bald viele Diskussionen geben, geben müssen. Fortschritt ist wichtig und Teil des Lebens, er sollte aber gewissen Gesetzen und Regeln unterliegen. Ist zum Beispiel ein Mensch, der eine KI-gesteuerte Prothese hat, schon ein halber Roboter?
Eine gute Frage, auf die auch ich spontan keine Antwort habe. Eine KI würde vielleicht eine Prozentangabe zum Abwägen ausspucken.
Darauf will ich hinaus: Die reicht nicht! Wir müssen Menschen bleiben, um Fragen wie diese unter zahlreichen menschlichen Blickwinkeln zu beurteilen. Dinge wie Genmanipulation oder auch der Einsatz von robotergesteuerten Waffen – hier ist es essenziell, dass wir ein Bewusstsein schaffen, was das bedeutet und zukünftig auch noch bedeuten kann. Ein kleiner Vorläufer dieser Diskussionen ist die aktuelle Frage nach ChatGPT: Sollte ich einer KI vertrauen, die nicht zwischen Fake und echten Informationen unterscheiden kann?
Über den Autor
Gerd Leonhard ist Zukunftsforscher, Keynote-Speaker, Autor von Sachbüchern und CEO der Beratungsagentur „The Futures Agency“. Er beschäftigt sich mit den technologischen, kulturellen und gesellschaftlichen Veränderungen, die die Zukunft mit sich bringt.