„Auch Lebewesen sind Algorithmen!“

Kristian Kersting, Christoph Lampert und Constantin Rothkopf haben gemeinsam mit ihren Studierenden eine verständliche, unterhaltsame und dennoch anspruchsvolle Einführung in die Welt der Künstlichen Intelligenz und des Maschinellen Lernens veröffentlicht. Was muss man zum Thema wissen?

„Auch Lebewesen sind Algorithmen!“

getAbstract: In „Wie Maschinen lernen“ machen Leser recht früh Bekanntschaft mit Lisa – einem fiktiven Charakter, den Sie auf eine Entdeckungsreise zum Thema „Machine Learning“ schicken. Woher kam die Idee?

Christoph Lampert: Die Idee zu einem Buchprojekt kam bei einem Seminartreffen im Frühjahr 2018. Und die Studierenden, die ja als Autorinnen und Autoren der Kapitel die kreativen Köpfe hinter dem Projekt sind, hatten schon früh beschlossen, dem Buch eine Hauptperson zu geben, die die Leser persönlich ansprechen und bei ihren eigenen Erfahrungen abholen kann.

Kristian Kersting: In dem Seminar haben die Studierenden selber KI und das Maschinelle Lernen kennengelernt, und es wurde schnell klar, dass sie damit genau die richtige Tiefe und Wortwahl für ein populärwissenschaftliches Buch treffen, um die Inhalte einer breiten Bevölkerungsschicht zu vermitteln.

Das Buch strotzt vor schönen Erklärungen für den Einsatz und die Funktion von selbstlernenden Maschinen, also künstlicher Intelligenz. Wie lang hat es gedauert, bis sie all die abstrakten Themen greifbar gemacht hatten, und wie sind sie dabei vorgegangen?

Constantin Rothkopf: Einige der Beispiele im Buch sind Weiterentwicklungen von klassischen Beispielen, denen auch wir mal begegnet sind, die uns beigebracht wurden, oder die wir mal gelesen haben – und die wir oft in Vorlesungen und Seminaren benutzen.

Lampert: In zahlreichen weiteren Treffen, verteilt über das nächste Jahr, wurde das Konzept dann weiterentwickelt, bis die Inhalte im Sommer 2019 ausgearbeitet und die Kapitel geschrieben waren. Wichtig war dabei stets die Interaktion in der Gruppe: Auf diese Weise konnten sich die Studierenden mit ihren unterschiedlichen fachlichen Hintergründen gegenseitig unterstützen und die Aufklärung einer diversen Leserschaft im Auge behalten.

Image of: Wie Maschinen lernen
Zusammenfassung (Buch)

Wie Maschinen lernen

Was bedeutet „künstliche Intelligenz“ eigentlich und wie funktioniert sie?

Christoph Lampert, Constantin Rothkopf und Kristian Kersting (Hg.) Springer
Zusammenfassung ansehen

Die Funktionsweisen von Algorithmen werden etwa am Beispiel eines Backrezepts – „Eingabe des Algorithmus = Zutaten“; „Ausgabe des Algorithmus = Pfannkuchen“ – erklärt. Die „Tiefensuche“ anhand des Herumirrens in einem Maisfeld-Labyrinth. Damit ist Ihnen gelungen, was vielen Kollegen nicht gelingt: KI-Forschung nachvollziehbar machen. Ist es mitunter schwierig, in der Materie zu sein – sie dann aber von außen begreifbar zu machen?

Lampert: Wenn man seit Jahren in einem Gebiet forscht, kann es natürlich ein Problem sein, richtig einzuschätzen, welche Aspekte für Neulinge einfach und welche schwierig zu verstehen sind. Deshalb haben wir das Buch von vorneherein als Projekt von Studierenden geplant. Viele von ihnen hatten sich vor unserem gemeinsamen Seminar selbst erst wenig mit dem Thema Künstliche Intelligenz auseinandergesetzt, und konnten daher direkt aus ihrer eigenen Erfahrung schöpfen, wenn es darum ging, einen geeigneten Einstieg in das Thema zu finden.

Rothkopf: Wenn man algorithmisch denkt, dann findet man im Alltag ständig Situationen und Aufgaben, in denen man etwas löst oder neu erlernt, und dann sieht man natürlich auch die Verbindung zum Maschinellen Lernen. 

Lassen Sie uns den drei Typen des maschinellen Lernens mit der nötigen Distanz zu Leibe rücken: überwachtes, unüberwachtes und verstärkendes Lernen. Können Sie je kurz erklären, was das ist und wie man sich diese verschiedenen Herangehensweisen einfach vergegenwärtigen kann?

Lampert: Der zentrale Unterschied liegt darin, welche Information wir – als menschliche „Lehrer“ – der lernenden Maschine mitgeben können. Im überwachten Lernen sind dies konkrete Beispiele und die zugehörigen korrekten Antworten. Im unüberwachten Lernen sind es nur die Beispiele, aber die Maschine muss selbst herausfinden, welche Struktur diesen Daten zugrunde liegen könnte. Das verstärkende Lernen wiederum ist eine Art Zwischenform: die Maschine erhält nur Beispiele als Eingabe, aber je nachdem welche Antworten sie produziert, auch über mehrere Beispiele hinweg, erhält sie positives oder negatives Feedback.

Rothkopf: Wobei man natürlich sagen muss, dass es vergleichbare Szenarien auch beim menschlichen Lernen gibt: Manchmal bekommen wir anhand vieler Beispiele beigebracht, was eine Eiche und was eine Buche ist, während wir in den ersten Lebensjahren das Sehen ohne ständige Benennung aller Objekte um uns herum erlernen. Und schließlich lernen wir Fußball zu spielen, wo eine ganze Reihe von Handlungen richtig ausgeführt werden muss, um ein Spiel zu gewinnen. 

Der getAbstract International Book Award wird seit 2001 jährlich an Titel vergeben, die aktuelle wirtschafts- und businessrelevante Themen auf außergewöhnliche Weise in den Mittelpunkt rücken. In diesem Jubiläumsjahr wird der Preis symbolisch durch eine Reihe von Interviews und Online-Events verliehen. Mehr Informationen finden Sie hier.

Im Buch widmen Sie einen großen Teil der Erklärung dem Umgang mit Daten und Datensets. Denn: Je besser die Datenlage und ihre Aufbereitung ist, desto besser ist auch der Lerneffekt von Maschinen und das Ergebnis ihres „Lernens“ für die weitere Nutzung. Eigentlich sagen Sie: Über Erfolg und Misserfolg des Lernens entscheiden die verfügbaren Daten und deren Nutzung – also am Ende doch wir Menschen, nicht? Damit bleiben aber doch die Maschinen, auch wenn sie „intelligent“ sind, stark eingeengt in ihren Fähigkeiten.

Lampert: Ja, das kann man so sehen. Das ist auch einer der Gründe, warum ich den Begriff „Künstliche Intelligenz“ für lernende Systeme dieser Art für unpassend halte und „Maschinelles Lernen“ bevorzuge…

Kersting: … allerdings geht Künstliche Intelligenz eben auch über das Maschinelle Lernen hinaus. Hier geht es auch um Algorithmen fürs „Nachdenken“. Man kann sich schon vorstellen, dass eine Maschine Schritt für Schritt allgemeines Weltwissen erlernt und so über die Welt und ihre Gesetzmäßigkeiten nachdenkt. Aber in vielen Fällen muss man gar nicht so weit gehen.

Die Maschinen analysieren existierende Daten und lernen daraus, in zukünftigen Situationen hoffentlich optimale Antworten zu geben. Intelligenz, wie ein Mensch sie hat, ist dafür gar nicht notwendig.

Kristian Kersting

Rothkopf: Das ist tatsächlich eine sehr viel schwierigere Frage, als es erst einmal den Anschein hat. Natürlich, wenn wir einen Algorithmus entwickeln und Daten zur Anwendung auswählen, dann haben wir meistens einen klaren Zusammenhang vor Augen, wie in einem Anwendungsfall aus den Daten eine Eigenschaft berechnet werden könnte. Aber: Wissenschaft ist ja ständig damit beschäftigt, neue Zusammenhänge in Daten zu erkennen. Und diese entgehen uns schlicht manchmal, bzw. wir erkennen sie erst durch die Anwendung von Algorithmen.

Konkret?

Rothkopf: Nehmen wir an, wir wollten einem System beibringen, Pflanzen von Insekten zu unterscheiden. Wir sammeln dazu ganz viele Fotos von Pflanzen und Insekten und setzen sie einem entsprechenden System zur Unterscheidung vor. Am Ende kommt es zu keinem klaren Ergebnis – und wir stellen bei Durchsicht fest, dass der Grund dafür ebenso einfach wie herausfordernd ist: Es gibt Insekten, die zur Tarnung wie Blätter aussehen! Wir müssen also umdenken. Das ist eine fundamentale Eigenschaft von Modellen und Daten, ganz unabhängig davon, ob es sich um Computer handelt. Denn auch wir Menschen lernen aus unseren sinnlichen Daten mittels Algorithmen unseres Gehirns. Dabei entdeckt die künstliche Intelligenz wie ihre Zwillingswissenschaft, die Kognitionswissenschaft, wie die Gesetzmäßigkeiten dieser Zusammenhänge aussehen.

Image of: Künstliche Intelligenz
Themenkanal

Künstliche Intelligenz

Hier finden Sie Zusammenfassungen zum Thema Künstliche Intelligenz (KI), einem der aktuell bedeutendsten Forschungsgebiete mit Relevanz für nahezu alle Bereiche menschlichen Lebens: Wirtschaft,…

Themenkanal ansehen

Überraschend ist, dass – um möglichst sinnvoll zu funktionieren – auch die lernende Maschine überwacht werden muss. Je komplexer die Aufgabe, desto mehr gute Daten braucht die Maschine, aber vor allem: desto mehr sinnvolle Hinweise müssen Menschen ihr geben, wie damit umzugehen ist. Zumindest wenn der Output am Schluss „nützlich“ sein soll. Wie weit sind wir also aktuell noch von einer maschinellen Intelligenz entfernt, die es mit der menschlichen Intelligenz aufnehmen kann?

Lampert: Das scheint uns ein Missverständnis zu sein. Auch menschliche Intelligenz funktioniert nicht ohne “Hinweise” auf unterschiedlichen Ebenen. Wir lernen von unseren Eltern, von Lehrerinnen und Lehrern, oder aus Büchern – überwachtes Lernen – ebenso wie durch spielerisches Ausprobieren – unüberwachtes und verstärkendes Lernen. Und das hoffentlich ein Leben lang. Im Übrigen gibt es auch Erfolgsgeschichten von KI-Systemen, die – fast – ohne menschliche Überwachung auskommen. Zum Beispiel die AlphaZero Software, die gelernt hat, Go zu spielen – und zwar besser als der menschliche Weltmeister. Alles, was sie brauchte, waren die Spielregeln und die nötige Zeit für viele Partien gegen sich selbst.

Rothkopf: Aber ja, es stimmt schon: Die Inselbegabungen, die Maschinen heute zum Lösen von Problemen bereits haben, erfordern zur Weiterentwicklung Teams von Wissenschaftlern, die Experten für solche Algorithmen sind.

Von der menschlichen Flexibilität sind wir sehr weit entfernt.

Constantin Rothkopf

Der Mangel an Informationen über neue Technologien führt aktuell entweder zu absurd großen Hoffnungen oder zu irrationaler Angst. Gerade im Zusammenhang mit KI sind Schreckensszenarien von rebellierenden Robotern, die die Weltherrschaft übernehmen, weit verbreitet. Dabei liegt die eigentliche Gefahr nicht in ihrer Bösartigkeit – sondern in ihrer Dummheit. Können Sie das einmal ausführen?

Lampert: KI-Systeme sind weder böse noch gut, weder dumm noch schlau. Das sind Zuschreibungen menschlicher Eigenschaften, die es schwieriger machen, objektiv über Vor- und Nachteile dieser Systeme zu diskutieren.

Aktuell und auch in absehbarer Zukunft hat ein KI-System kein Bewusstsein, keinen gesunden Menschenverstand. Wenn es programmiert wird, eine bestimmte Aufgabe zu erfüllen, zum Beispiel so viele Büroklammern wie möglich zu produzieren, dann wird es versuchen, genau dies zu tun, ohne abzuwägen, wie viele Büroklammern die Welt wirklich braucht, und ob die Rohstoffe nicht anderswo sinnvoller eingesetzt wären.

Christoph Lampert

Das ist nicht anders als bei anderen technischen Geräten oder Diensten: Die Verantwortung für den richtigen oder falschen Einsatz liegt beim Menschen.

Hier fällt dann auch der Begriff „Technikethik“. Namentlich: die Technikfolgenabschätzung. Das ist die Vorhersage, wie intelligente Systeme unser Alltagsleben verändern und beeinflussen. Dazu ist es wichtig, nicht nur Ingenieure, sondern auch Ethiker und Endnutzer an der Entwicklung intelligenter Systeme zu beteiligen. Hand aufs Herz: Wo passiert das tatsächlich?

Lampert: Einerseits: mehr als man denkt. Im Moment sind es hauptsächlich große Firmen, die KI breit einsetzen und auch für Endnutzer zugänglich machen, zum Beispiel die Spracherkennung im iPhone oder die automatische Übersetzungsfunktion von Google. Diese Firmen integrieren selbstverständlich das Feedback von Endnutzern, und sie ziehen auch Experten hinzu, um die Auswirkung ihrer Entwicklungen abzuschätzen. Zugegeben liegt der Fokus dabei wohl eher auf Betriebswirtschaft als auf Ethik. Andererseits: Technologiefolgenabschätzung ist selbst noch ein Gebiet in den Kinderschuhen. Man sollte es sich nicht so vorstellen, dass man, wenn man ein neues KI-System entwickeln will, einfach nur eine Gruppe Ethiker fragen müsste, und die Ihnen dann sagen, wie man negative Auswirkungen vermeidet. Um ein bekanntes geflügeltes Wort zu bemühen: „Prognosen sind schwierig, besonders wenn sie die Zukunft betreffen.“  

Kersting: Es geht aktuell vor allem darum, auf potentielle ethische Fragestellungen schon bei der Entwicklung von KI-Systemen hinzuwirken und Bewusstsein dafür zu schaffen.

Eine weitere wichtige Frage der Ethik lautet: Wie kann künstliche Intelligenz uns dabei helfen, ein gutes Leben zu führen? Ist es nicht so, dass man zuerst klären müsste, was ein „gutes Leben“ ist? Darüber streiten alle erdenklichen wissenschaftlichen Disziplinen seit Jahrhunderten.

Lampert: Nein, das denken wir nicht. Künstliche Intelligenz ist zu einem Großteil eine pragmatische Disziplin. Im Moment sind es meist kleine Funktionen, die automatisiert werden. Zum Beispiel: Dank Spracheingabe kann ich zu Hause einen Kurzzeitwecker stellen, selbst wenn ich gerade keine Hand frei habe. Das ist bequem, kommt aber mit dem Nachteil, dass eine Maschine aufnimmt, verarbeitet und speichert, was man sagt. Ob das mein Leben „besser“ macht oder nicht, ist eine persönliche Abwägung.

Kersting: Methoden der KI haben sicherlich auch das Potential, die medizinische Versorgung und die industrielle Produktion zu verbessern. Ob das unser aller Leben „besser“ macht oder nicht, ist dann wiederum eine gesellschaftliche Abwägung.

Lampert: Wenn also KI-Systeme eines Tages helfen können, wirksamere Impfstoffe zu entwickeln oder die Folgen des Klimawandels zu reduzieren, sollten sie das tun, egal, ob wir bis dahin eine Definition von „gutes Leben“ gefunden haben oder nicht.

Rothkopf: Dabei sollten wir grundsätzlich die Kreativität der Menschen nicht unterschätzen: KI und ML werden in Zukunft von Teams und einzelnen Menschen weiterentwickelt und eingesetzt werden, inklusive aller erdenklichen Disziplinen. Eine Auseinandersetzung damit, was ein „gutes Leben“ ist, ist fundamental wichtig – und wir Menschen beschäftigen uns ja ständig damit, ob wir wollen oder nicht. Neu könnten und sollten wir dabei aber auch die Künstliche Intelligenz in unsere Überlegungen einbeziehen. Wir sollten uns, erstens, mit der Frage beschäftigen, wie wir sie einsetzten wollen und wie wir sie eben nicht einsetzen wollen. Gern wird übersehen, welche Auswirkungen die Cognitive Science darauf hat, wie wir uns – zweitens – selbst als Menschen wahrnehmen. Die letzten Jahrzehnte haben viele wissenschaftliche Erkenntnisse zutage gefördert, die zeigen, nach welchen Gesetzmäßigkeit wir – und nicht die Maschinen -entscheiden, handeln und lernen. Auch Lebewesen sind Algorithmen! Ich glaube: Diese Erkenntnis wird einen fundamentalen Wandel herbeiführen. Sie wird verändern, wie wir über uns selbst und unser Menschsein denken.

Meinen Sie, dass man sich immerhin auf einen Minimalkonsens aus Einsen und Nullen wird einigen können?

Rothkopf: Nun, das ist eine überspitzte Frage, die nach einer überspitzter Antwort ruft. Sicherlich haben Philosophen danach gestrebt, eine Ethik zu entwickeln, die Fragen beantworten kann, am besten mit einem „Ja“ oder „Nein“. Da ist man schon sehr nahe an Nullen und Einsen. Aber: Nein. Und das wird auch nicht notwendig sein.

Braucht es nicht gerade in Deutschland viel mehr interdisziplinäre Forschung in diese Richtung? Ich habe häufig den Eindruck, dass technische und philosophische Fachbereiche immer noch weitgehend nebeneinanderher existieren.

Lampert: Ja, es braucht mehr interdisziplinäre Forschung. Aber es braucht auch mehr disziplinäre Forschung in diesen Gebieten. Vor allem aber braucht es mehr Grundlagenforschung. In der öffentlichen Diskussion werden oft die Anwendungen der KI in den Vordergrund gestellt, zum Beispiel wie sie uns in der Medizin oder gegen Klimawandel helfen könnte…

Rothkopf: …gerade so, als sei KI eine „fertige Methode“!

Lampert: Dabei steckt sie als Forschungsgebiet noch in den Kinderschuhen, und nur, wenn wir ihre Grundlagen und ihr Potenzial noch viel besser verstehen, werden wir in der Lage sein, auch in Zukunft dauerhaft von ihr zu profitieren.

Welche Schritte braucht es, um Deutschland in diesem Bereich wirklich voran zu bringen?

Lampert: Es ist kein Geheimnis, wie gute Forschung entsteht: Man muss guten Wissenschaftlerinnen und Wissenschaftlern die Freiheit, die finanziellen Mittel und das Ökosystem geben, um das zu erforschen, was sie fasziniert.

Rothkopf: Das ist schon schwierig genug.

Kersting: Wir brauchen vor allem mehr wirklich gute KI-Wissenschaftlerinnen und Wissenschaftler in Europa.

Das Ziel muss es sein, eine kritische Masse aufzubauen, bevor andere Regionen und Länder, insbesondere die USA und China, einen uneinholbaren Vorsprung haben.

Kristian Kersting

Wir sagen absichtlich „Europa“ und nicht „Deutschland“, denn es wäre hoffnungslos, bei diesem Thema national zu denken. Unser Buch ist nicht zuletzt deshalb eine Co-Produktion aus Deutschland und Österreich.

Ganz konkret: Wie kann es gelingen, diese „kritische Masse“ in der Expertise zu Künstlicher Intelligenz aufzubauen?

Lampert: Dazu sind diverse parallele Maßnahmen notwendig. Zum einen: Mehr und bessere Studiengänge im Bereich KI, um Nachwuchstalente finden und fördern. Dann: Bessere Konditionen für junge Wissenschaftlerinnen und Wissenschaftler, um den „Brain Drain“ in die – amerikanisch dominierte – Industrie zu reduzieren. Und schließlich: Eine Rückbesinnung in Wissenschaftspolitik, Forschungsförderung und auch der wissenschaftlichen Community selbst, wieder die Forschungsqualität zu priorisieren statt fachfremder Kriterien wie eingeworbene Drittmittel oder ein richtiger „Stallgeruch“.

Meinen Sie, dass die aktuelle Coronakrise der digitalen Transformation generell einen Schub verpassen wird, gerade auch im eher zaghaft digitalisieren deutschsprachigen Raum?

Kersting: Dem Trend zu Homeoffice und allgemeiner Digitalisierung, zum Beispiel von Dienstleistungen: Ja. Es ist sicherlich gut, dass sich viele noch viel mehr mit Computern auseinandersetzen mussten und müssen. Mit Künstlicher Intelligenz hat das aktuell aber noch eher wenig zu tun, wenngleich Ansätze einer Transformation auch in Sektoren, die man vielleicht nicht immer mit KI in Verbindung bringt, erkennbar werden. So wird der Digitalisierungsschub zum Beispiel in der industriellen Produktion immer größer.

Welche Bereiche von Wirtschaft, Politik und Gesellschaft gehören in dieser Krise zu den heimlichen Transformationsgewinnern?

Lampert: Aus europäischer Sicht bisher die falschen. Große amerikanische Firmen wie Google, Facebook und Amazon sind – auch mit Hilfe von Künstlicher Intelligenz – zu global agierenden Quasi-Monopolisten aufgestiegen. Populistische und andere undemokratische Gruppen haben gelernt, das Internet zu ihrem Vorteil zu nutzen, während klassische politische Parteien kaum profitieren. Aber: heimlich geschieht das eher nicht.

Über die Herausgeber:

Kristian Kersting ist Professor für Künstliche Intelligenz und Maschinelles Lernen am Fachbereich Informatik der Technischen Universität Darmstadt, leitet dort das Fachgebiet (Lehrstuhl) für KI und Maschinelles Lernen und ist Mitglied des Zentrums für Kognitionswissenschaft.

Christoph Lampert ist Professor am Institute of Science and Technology (IST Austria) und Leiter der Forschungsgruppe „Machine Learning and Computer Vision“.

Constantin Rothkopf ist Gründungsdirektor des Zentrums für Kognitionswissenschaft und Professor für Psychologie der Informationsverarbeitung am Institut für Psychologie der Technischen Universität Darmstadt.


Mehr zum Thema Digitale Transformation:

Share this Story