MenschenProfessor Wolfgang Wahlster

„Auch Roboter müssen das Vergessen lernen!“

Lesezeit ca.: 7 Minuten
Rüdiger Vossberg

Rüdiger Voßberg

freier Journalist

»Wir befinden uns gerade an der Schwelle einer neuen Robotergeneration, die zu einer wirklichen Mensch-Roboter-Kooperation führen könnte«, sagt der Vorsitzende der Geschäftsführung und technisch-wissenschaftliche Leiter des Deutschen Forschungszentrums für Künstliche Intelligenz – DFKI GmbH in Saarbrücken, Professor Wolfgang Wahlster.

12. Januar 2015

Sie sind von einer renommierten deutschen Computerzeitschrift als KI-Papst in die »Hall of Fame der größten IT-Persönlichkeiten« aufgenommen worden, Herr Professor Wahlster. Künstliche Intelligenz und Religion – passt das zusammen?

Wolfgang Wahlster: Nein, und der »Papst-Titel« passt nicht so recht. Denn die KI ist ein Teilgebiet der Informatik mit starken inter-disziplinären Bezügen zu Hirnforschung, Systembiologie, Kognitionspsychologie und Linguistik. Sie ist aber keine Metawissenschaft und hat mit Jüngern oder dem Papst schon gar nichts gemein. KI ist auch kein Glaubensbekenntnis, dass man den Menschen durch Computer ersetzen könnte, sondern sie ist eine ganz normale Ingenieurwissenschaft. Sie ist die Avantgarde der Informations- und Kommunikationstechnik.

Benötigen wir überhaupt ethische Wertevorstellungen für die KI?

Wahlster: Ja, wie sie Isaac Asimov bereits im Ansatz in seinen »Grundregeln des Roboterdienstes« aus dem Jahre 1942 formuliert hat. Man sollte autonomen Computersystemen als deren Entwickler schon gewisse ethisch-moralische Regeln mitgeben, in deren Rahmen sie dann frei planen können – aber das ist keine Hexerei und noch lange kein menschliches Bewusstsein. Das sprachbasierte Hilfesystem UC für das Betriebssystem Unix beantwortet zum Beispiel die Frage: Wie lösche ich mit einem Kurzbefehl alle TMP-Dateien auf meinem Rechner? Aber das System verweigert die Antwort auf die Frage: Wie kann ich sämtliche Dateien auf der Platte meines Kollegen löschen? Das ist noch eine sehr elementare Ethik.

Roboter sind nicht gerade für Gefühlsausbrüche bekannt; welche menschlichen Gefühle können Sie bereits erkennen?

Wahlster: Wir haben für Telekommunikationsunternehmen ein System zur Sprecherklassifikation entwickelt, das automatisch das Geschlecht und die ungefähre Altersklasse des Anrufers erkennt sowie die Sprache, die er spricht. Diese verschiedenen Parameter wurden mithilfe akustischer Frequenzanalysen aus unzähligen Stimmproben herausgefunden und die Ergebnisse mit Lernalgorithmen auf die Computer übertragen. Die Trefferquote bei vier Altersklassen liegt bei über 90 Prozent. Aus den Stimmparametern wird auch registriert, ob jemand stark emotionalisiert ist: Wütende Anrufer kommen dann nicht unnötig in eine lange Warteschleife.

Im Film »Silent Running« von 1972 pokert Bruce Dern in der Rolle des Astronauten Freeman Lowell mit seinen verbliebenen Robotorkollegen Huey und Dewey. Alles nur Science-Fiction, oder können Roboter mittlerweile wirklich bluffen?

Wahlster: Und wie! Ich kenne diesen Film auch, und wir haben am DFKI bereits einen eigenen Poker-Bot entwickelt: einen virtuellen Pokerspieler für einen realen Pokertisch mit echten Karten, die mit RFID-Chip versehen sind. Unser virtueller Charakter beobachtet die menschlichen Spieler, zieht seine Schlüsse daraus und mimt das Pokerface. Selbst seine Sprachausgabe berücksichtigt zur atmosphärischen Abrundung einen psychologischen Pokerslang. Algorithmisch ist dieser Softbot dem Poker-Laien überlegen und weist bessere Pokerstrategien auf. Der Mensch hat aber eine zu große Bandbreite in der Körpersprache, die heutige KI-Systeme noch nicht in allen Nuancen erkennen und richtig interpretieren können.

Ist das die Herausforderung zukünftiger Entwicklungen?

Wahlster: Unbedingt! Es ist eine der größten Herausforderungen, aus der Beobachtung eines menschlichen Partners heraus dessen Ziele, Pläne und weitere Aktivitäten vorauszusagen. Momentan befinden wir uns gerade an der Schwelle zu einer neuen Robotergeneration, die zu einer echten Mensch-Roboter-Kooperation führen könnte. Erste Tests laufen gerade in verschiedenen Unternehmen bei der Automobilproduktion. Dort arbeiten neuartige Leichtbauroboter mit humanoidem Ausweichverhalten als Produktionsassistenz mit einem Menschen am Band zusammen, der ihnen sagt, was sie zu tun und zu lassen haben.

Wie erkläre ich denn dem Roboter seine Arbeitswelt?

Wahlster: So, wie es zahlreiche Programmiersprachen gibt, gibt es auch computergerechte Sprachen zur Wissensrepräsentation, zum Beispiel die »Web Ontology Language«, kurz OWL. Mit der kann man, vereinfacht gesprochen, dem Computer seine Umwelt begrifflich erklären. Dazu kommen Regelsysteme und Planungssysteme, mit denen KI-Systeme aus einer kleinen Menge von Anfangswissen prinzipiell unendlich viele neue Aussagen oder Handlungsalternativen ableiten können. Wie ein Kind lernt auch der Roboter zunächst vielleicht nur anhand von Bauklötzchen, zwischen einem Turm und einem Haus zu unterscheiden. Werden diese visuellen Informationen intelligent verallgemeinert, so kann das System später auch den Eiffelturm als Turm identifizieren.

Also ohne Erfahrungswerte kann aber auch ein Computer nichts lernen …

Wahlster: … richtig. Aber wir haben ja bereits 20 – 30 Jahre lang dran gearbeitet, diesen KI-Systemen ein Anfangswissen in Form von Ontologien mitzugeben, was nun in großen Zukunftsprojekten wie Industrie 4.0 zum Einsatz kommt, um alle Funktionen in einer Fabrik zu beschreiben. Diese Entwicklungen will nun auch Google für seine Zwecke nutzen.

Genau, was ruft denn nun Google in puncto Robotik auf den Plan?

Wahlster: Googles langfristiges Interesse ist es, von der Suchmaschine zur Antwortmaschine zu werden. Die ursprüngliche Google-Suche lieferte ja nur Fundstellen für mögliche Antworten, aber meist noch keine direkte Antwort auf eine Frage. Zukünftig stellt der Benutzer eine Frage und erhält dann wie von einem menschlichen Experten auf dem Gebiet der Frage eine klare Antwort.

Und zukünftig lernt dann der Roboter vom Roboter?

Wahlster: Ja, das gibt es in Ansätzen heute schon in unseren Forschungslaboren, aber dieses Problem ist längst nicht gelöst. Wir befinden uns noch im Frühstadium der Forschung zu Roboter-Teams und haben dazu gerade erst ein neues Forschungsprojekt unter der Bezeichnung »Hybrid Social Teams (HYSOCIATEA)« ins Leben gerufen. Gemischte Teams aus mehreren Menschen und verschiedenen Robotern sowie Softbots und virtuellen Charakteren sollen komplexe Aufgaben gemeinsam erledigen und sich dabei untereinander wechselseitig ergänzen und helfen.

Oft wird populärwissenschaftlich behauptet, KI-Systeme könnten ja nur das umsetzen, was man ihnen eingefüttert hat.

Wahlster: Das ist natürlich barer Unsinn. Wir sind als Entwickler selbst oft fasziniert, welche neuen Lösungen KI-Systeme finden. Selbst bei der Weltmeisterschaft der Fußballroboter kann man immer wieder Spielzüge sehen, die Erstaunen auslösen und natürlich so nicht programmiert wurden. Sie entstehen aus der Kommunikation und Kooperation mehrerer autonom agierender KI-Systeme.

Aber Roboter sind ja nicht zum Fußballspielen erfunden worden, sondern sollen auch verseuchte Kernkraftwerke reinigen.

Wahlster: Deshalb sind wir auch in dem von der EU geförderten Projekt TRADR (Long-Term Human-Robot Teaming for Robot-Assisted Disaster Response) am DFKI dabei, Technologien zu entwickeln, die gemischte Teams aus Menschen und Robotern bei Katastropheneinsätzen unterstützen. Ziel des Projekts ist es, das von den robotischen Teamplayern erworbene Erfahrungswissen zu speichern, zu verarbeiten und bei künftigen Einsätzen zu nutzen. Dazu werden die Sensorinformationen einzelner Roboter und unterschiedlicher Teams fusioniert, damit der Roboter sein Vorgehen an die veränderte Situation anpassen und unter Umständen sogar seine nächste Herausforderung antizipieren kann.

Kann ein Roboter das Erlernte dann auch wieder vergessen?

Wahlster: Auch Roboter müssen lernen zu vergessen beziehungsweise zu selektieren. Vergessen gehört zur Intelligenz. Es wird ja vermutet, dass der Mensch im Schlaf seine Erfahrungen und sein Wissen verdichtet, einordnet und verknüpft. KI-Systeme sind keine simplen Datenbanken, die alles Neue einfach nur zusätzlich speichern. Neu gelernte Aussagen werden mit dem bestehenden Wissen abgeglichen und können bereits gespeicherte Wissensstrukturen nachträglich durch eine selbstentdeckte Verallgemeinerung ändern. Sonst würden die Systeme auf Dauer auch viel zu langsam werden.

Wie sehen Sie die »humanoide Zukunft«?

Wahlster: Prognose ist, dass es in zehn Jahren kaum noch Smartphones, Notebooks und Tablets geben wird. Wir werden den Computer als solchen nicht mehr wahrnehmen, sondern anhand von Datenbrillen, Sprachcomputern, smarten Uhren und Körpersensoren in engem Kontakt mit der virtuellen Welt des Internets stehen. Intelligente Räume von morgen werden mit Ambient-Anzeigen und -Sensoren überzogen sein. Wir betreten den intelligenten Fahrstuhl, drücken keine Taste mehr, sondern das System erkennt uns und weiß, in welches Stockwerk wir wollen.

Klingt nach Kontrollverlust. Wo sehen Sie die größte Hürde bei der Einführung solcher Systeme?

Wahlster: Der Schutz der Privatsphäre, die informationelle Selbstbestimmung, die Sicherheit, aber auch der barrierefreie Zugang für jeden Bürger sind zwingende Notwendigkeiten bei der Einführung dieser komplexen soziotechnischen Systeme, denn schließlich steht weiterhin der Mensch im Mittelpunkt all dieser Entwicklungen: Die Computer sollen sich ja mithilfe von künstlicher Intelligenz besser dem Menschen und dessen Bedürfnissen anpassen und nicht umgekehrt. Künstliche Intelligenz ist zwar besser als natürliche Dummheit, kann und darf den gesunden Menschenverstand aber nicht ersetzen.

Herr Professor Wahlster, vielen Dank für das Gespräch.

Ausgabe 2014/02

Ausgabe 2014/02

Dieser Artikel erscheint auch in unserem IT-Magazin <atFERCHAU>. Möchten Sie weitere spannende Artikel lesen?

Download pdf