Wolfgang Wahlster: „KI-Horrorszenarien halte ich für Unsinn“

KI-Forscher Wolfgang Wahlster spricht mit bmbf.de über Künstliche Intelligenz, die sich noch nicht mit der generellen Intelligenz eines Kleinkindes messen kann – aber trotzdem das Zeug zum neuen Exportschlager „KI Made in Germany“ hat.

Seit 40 Jahren erforscht Wolfgang Wahlster Künstliche Intelligenz. „KI Made in Germany“ könnte der nächste Exportschlager werden, sagt er.  © Jim Rakete

Bmbf.de: Herr Wahlster, Künstliche Intelligenz ist für viele Menschen als Begriff zu abstrakt – und wird mit Filmen wie A.I. von Steven Spielberg oder Terminator assoziiert. Wenn Sie sich eine intelligente Maschine wünschen dürften, welche wäre das?

Wolfgang Wahlster: Ein digitaler persönlicher Assistent, der mich überall hin begleitet und zu dem ich großes Vertrauen entwickeln kann. Er würde mir nicht nur rechtzeitig ein Taxi rufen, sondern mich auch bei vielen Routineaufgaben digital vertreten. Er wäre der perfekte Helfer: Selbstlernend würde er sich merken, was ich mag und was nicht – und mir viele langweilige Dinge abnehmen, dabei aber immer sehr diskret auf den Schutz meiner Privatsphäre achten.

Wie würden Sie sicherstellen, dass Ihr Assistent nur zu Ihrem Besten handelt?

KI muss dem Menschen dienen. Das heißt auch: Schon beim Entwurf eines KI-Systems müssen ethische Leitlinien berücksichtigt werden. Jede KI muss absolut transparent handeln: Sie muss erstens stets erklären können, warum sie eine bestimmte Entscheidung vorschlägt. Wenn mir mein Assistent den Kauf eines bestimmten Produktes empfiehlt, muss er mir das für mich nachvollziehbar begründen können, wenn ich Zweifel habe. Zweitens muss ich einsehen können, was er sich über mich merkt und wie er meine Vorlieben einschätzt – und diese Daten muss ich selbst ändern können, denn ein lernendes KI-System kann sich ja auch einmal täuschen. Diese Selbsterklärungsfähigkeit und Transparenz ist heute noch nicht bei allen KI-Systemen gegeben. Aber daran arbeiten wir.

Stephen Hawking war kurz vor seinem Tod nicht so optimistisch, dass das klappt. Irgendwann könnte die KI die Menschheit auslöschen, meinte er. Was glauben Sie: Könnten sich Ihr persönlicher Assistent und seine Kollegen nicht doch gegen die Menschheit verschwören?

Solche Horrorszenarien halte ich für Unsinn. Und dieser wird von bestimmten Medien leider gerne auflagenwirksam verbreitet. KI-Systeme haben eine hochspezialisierte Intelligenz – wie etwa beispielsweise beim Go-Spiel,   bei der Erkennung von Kreditkartenmissbrauch oder von Tumoren. Sie sind „Fachidioten“, die aber mit der generellen Alltagsintelligenz des Menschen in allen Lebenslagen keineswegs mithalten können – vom Abitur ganz zu schweigen. Über KI-Verschwörungstheorien oder Superintelligenzen zu spekulieren, halte ich nach 40 Jahren persönlicher KI-Forschung für völlig unangemessen.

Wo liegen Grenzen des Machbaren für Künstliche Intelligenz?

Zum Beispiel bei Gefühlen: Zwar kann ein Computer Emotionen analysieren – beispielsweise anhand der Stimme oder des Gesichtsausdrucks. Er kann aber keine menschlichen Emotionen entwickeln, da er kein Hormonsystem hat. Computer sind ja keine biologischen Wesen! Auch im Bereich der sozialen Intelligenz gibt es großen Nachholbedarf: Die Fußballroboter sind noch keine guten Teamplayer und geben kaum ab!

Der Chatbot Tay von Microsoft hatte wohl die falschen Daten als er 2016 in den Sozialen Medien innerhalb weniger Stunden zum Rassisten mutierte…

Kippt man Müll in lernende KI-Systeme hinein, kommt auch Müll heraus. Das ist eine Binsenweisheit beim Einsatz statistischer Lernverfahren. Wir legen großen Wert darauf, dass Trainingsdaten äußerst sorgfältig ausgewählt werden und in sehr großen Mengen bereitstehen. Es muss auch dafür gesorgt werden, dass keine fehlerhaften Trainingsdaten in den Lernprozess eingeschleust werden – das kann dann schlimmer als ein Virus sein.

Was glauben Sie, wie die KI unser aller Leben verbessern wird?

Sie kann unser Leben sicherer, angenehmer, interessanter, entspannter und erfolgreicher machen:   Wir müssen in Zukunft weniger langweilige Aufgaben erledigen, müssen seltener im Stau oder in Warteschlagen stehen,  können im Alter länger unabhängig im eigenen Haus leben, und kommen sicherer an unser Ziel, wenn uns das autonome Auto fährt.

Viele Menschen fürchten dabei den Kontrollverlust…

…das müssen sie nicht. Der Mensch muss jederzeit in einem geordneten Prozess in der Lage sein, die Kontrolle vom KI-System an sich zu ziehen. Dafür setzen wir uns unter anderem in der Datenethikkommission der Bundesregierung ein. Natürlich gibt es immer ein Restrisiko. Durch das autonome Fahren können Verkehrstote nicht völlig vermieden werden – aber es werden deutlich weniger. Die KI ist nicht perfekt: Aber wo sie nachweisbar besser ist als der Mensch, sollten wir sie nicht verteufeln.      

Unternehmen wie die Telekom und SAP haben sich Leitlinien für den Umgang mit KI gegeben. Benötigen wir internationale Leitlinien und Verträge, wie KI eingesetzt werden kann?

Ja, es gibt sehr viele offene Fragen: Dürfen autonome Waffensysteme eingesetzt werden, die selbst über ihre Einsatzweise bestimmen? Wie lässt sich die Privatsphäre der Menschen noch besser schützen? Wer haftet für Schäden, die eine KI verursacht? Dies muss international geklärt werden – aber das wird dauern. Wir konzentrieren uns daher in der Datenethikkommission, der „Plattform Lernende Systeme“ und der KI-Strategie der Bundesregierung vorerst auf die ethischen Grundsätze für den KI-Einsatz in Deutschland und Europa.

Mit der KI-Strategie möchte die Bundesregierung Deutschland zu einem der führenden Standorte für die Entwicklung und Anwendung von KI-Technologien machen. Kann das gelingen?

Ja, wir haben eine exzellente KI-Forschung in Deutschland – auf Augenhöhe mit Amerika und Asien. Wir sind mit unseren Exportschlagern der deutschen Wirtschaft auch im Mittelstand für den KI-Einsatz im Internet der Dinge sehr gut gerüstet. Wenn wir jetzt Künstliche Intelligenz als Innovationsspritze in unseren hochwertigen Autos, Landmaschinen, Medizintechnik, Haushaltsgeräten und besonders Werkzeugmaschinen einsetzen, können wir unsere Weltmarktführerschaft in diesen Bereichen halten und sogar ausbauen. Deutschland ist in punkto Datenschutz und Datensicherheit sicherlich ein Härtetest! Darin liegt aber auch eine große Chance: Auch junge Menschen werden immer kritischer bei diesen Themen – selbst in den USA und China. Die Menschen wollen geprüfte Qualität. Damit könnte „KI Made in Germany“ der nächste Exportschlager werden!

Zur Person

Wolfgang Wahlster ist Professor für Informatik an der Universität des Saarlandes und leitet als technisch-wissenschaftlicher Direktor und Vorsitzender der Geschäftsführung das 1988 gegründete Deutsche Forschungszentrum für Künstliche Intelligenz (DFKI GmbH) in Saarbrücken, Kaiserslautern, Bremen und Berlin. Für seine Forschungen wurde er mit dem deutschen Zukunftspreis des Bundespräsidenten und Ehrendoktorwürden der Universitäten Darmstadt, Linkoeping und Maastricht ausgezeichnet. Er ist Mitglied der Nobelpreis-Akademie in Stockholm sowie der deutschen Nationalakademie Leopoldina. Zudem berät er die Bundesregierung in verschiedenen Gremien: Er ist unter anderem Mitglied der Datenethikkommission der Bundesregierung sowie des Lenkungskreises der BMBF-Plattform „Lernende Systeme“. Diese soll den Dialog zwischen Wissenschaft, Wirtschaft, Gesellschaft und Politik fördern und Handlungsempfehlungen erarbeiten, um Deutschland international führend für Lernende Systeme zu positionieren.