MenschenGespräch mit Prof. Michael Decker

„Roboter, die denken, gibt es nicht!“

Lesezeit ca.: 4 Minuten
Susanne Faschingbauer

Susanne Faschingbauer

freie Journalistin

Wenn Maschinen selbständig entscheiden, brauchen sie Moral. Die Regeln dafür gibt ihnen der Mensch vor. Doch welche sind das? Ein Gespräch mit Prof. Michael Decker, Leiter des Instituts für Technikfolgenabschätzung.

09. Juli 2015

Können Maschinen den Menschen ersetzen?

Michael Decker: Maschinen übernehmen längst mehr als standardisierte Handgriffe. Sie werden künftig Autos steuern oder Alte und Kranke pflegen. Doch kann das Ersetzen durch einen Roboter je komplett sein? Nehmen wir an, ein Rollstuhl fährt vollautonom in einem Krankenhaus. Er holt den Patienten von Station 5 ab und bringt ihn in den Keller zum Röntgen. Technisch würde man sagen, der Pfleger, der den Rollstuhl schiebt, ist damit ersetzt. Es spielen aber auch zwischenmenschliche Faktoren eine Rolle. Den Plausch im Fahrstuhl kann der Roboter nicht leisten. Man muss genau hinsehen: Wozu ist der Roboter in der Lage und wo liegen seine Grenzen? Wenn es gelingen soll, dass Maschinen den Menschen ersetzen, dann muss das in allen Bereichen gelingen, nicht nur im technischen.

Wenn Roboter den Menschen ersetzen oder ergänzen, stellt sich die Frage: Können Maschinen moralisch entscheiden?

Decker: Maschinen entscheiden ja nicht selbständig. Sie entscheiden nach Regeln, die ihnen zuvor jemand programmiert hat. Die Frage muss daher lauten: Wie sollen Roboter Menschen ersetzen? Sollen sie auch moralische Entscheidungen treffen und, wenn ja, nach welchen moralischen Grundsätzen?

In der Pflege sind moralische Beurteilungen unausweichlich. Welche Regeln könnte es geben, aufgrund deren Maschinen entscheiden?

Decker: Das ist bislang nicht geklärt. Eine Debatte darüber muss dringend geführt werden. Ich gebe Ihnen ein Beispiel für ein moralisches Dilemma: In einem Altenheim kommen zwei Klingelzeichen gleichzeitig aus den Zimmern. Die Frage, die sich der Pfleger oder der Roboter nun stellt: Zu wem gehe ich zuerst? Der Mensch entscheidet auch nach Sympathie oder nach Gewohnheit. Herr Müller klingelt ständig, Frau Meier hingegen meldet sich nur, wenn sie Hilfe braucht. Für Pfleger gibt es unangenehme Patienten, zu denen sie weniger gern gehen. Maschinen sind da deutlich entspannter. Wenn die Datenlage bekannt ist und wir uns auf programmierbare Fairnessregeln geeinigt haben, dann kann der Roboter diese letztendlich besser umsetzen. Denn natürlich besteht die Gefahr, dass Herr Müller gestürzt ist und wirklich jemanden braucht.

Welche moralischen Dilemmata könnten beim autonomen Fahren auftauchen?

Decker: Es besteht die Chance, dass ein autonomes Auto besser fährt als der Mensch. Dafür müssen die Programmierer aber wissen, welche Regeln sie den Fahrzeugen mitgeben sollen. Nehmen wir an, ein Kind läuft Ihnen vors Auto. Der Bremsweg ist zu kurz, Sie können entweder links in den Gegenverkehr ausweichen oder rechts in die parkenden Autos. Alle wissen: Das ist das größte Unglück, das passieren kann. Jede Reaktion, die Sie als Mensch in dieser außerordentlichen Situation zeigen, ist irgendwie toleriert. Mit der Technik haben wir auf einmal neue Möglichkeiten. Zwar kann sie die Physik nicht überlisten, aber sie kann gezielt die Fahrtrichtung verändern – besser als der Mensch. Wir könnten sagen: Ein autonomes Auto soll immer mitrechnen, wie es beispielweise durch geschicktes Entlangschrammen an parkenden Autos seine Bremswirkung verbessern kann. Genauso könnten sich Fahrzeuge untereinander über ihre Knautschzonen verständigen. Dann würden sie diese Informationen nutzen, um eine optimale Wirkung dieser Knautschzonen zu berechnen, damit es für alle glimpflich ausgeht. Um dies zu programmieren, müssen wir als Gesellschaft zuerst die Fragen beantworten: Wen schützen wir? Immer das Kind oder immer das Auto mit den meisten Personen? Bislang wissen wir nicht, was wir dem Programmierer sagen würden.

»The Edge Question« ist eine Frage, die der Literaturagent John Brockman prominenten Wissenschaftlern und Künstlern einmal im Jahr stellt. 2015 heißt sie: was denken sie über Maschinen, die denken?

Decker: Da denke ich, die gibt es nicht.

Weshalb?

Decker: Was verstehen Sie unter »denken«? Denken nur Menschen? Oder auch Tiere? Ich sage, dass nur Menschen denken. Sie entscheiden rational, geben Gründe für ihr Handeln an, können sich in sozialen Kontexten verorten. Das ist Maschinen nicht möglich. Die technische Autonomie reicht nicht an die Autonomie von Menschen heran.

Es gibt Wissenschaftler, die der Meinung sind, sie könnten Maschinen ein Bewusstsein programmieren.

Decker: Wenn wir so weit gehen, müssten wir auch akzeptieren, dass Roboter sagen: Das mache ich nicht, weil ich keine Lust habe. Damit wäre für mich der wesentliche Aspekt von Technik verlorengegangen. Es würde keinen Sinn ergeben, so etwas zu kaufen. Es leben mehr als sieben Milliarden Menschen auf der Erde. Es gibt also keinen Mangel an Wesen, die ich mit Respekt und Würde behandeln »muss«. Ich wüsste daher nicht, warum man solche Systeme bauen sollte, mal davon abgesehen, dass man technisch davon noch weit entfernt ist.

Moral bezeichnet die Regeln, die das Handeln von Menschen bestimmen oder bestimmen sollten, wobei Menschen auf den Verstoß gegen diese Regeln mit Schuldgefühlen reagieren. Die »mores« umfassten traditionell das Spektrum von den Konventionen bis zu sanktionsbewehrten Rechtsregeln. In der Philosophie bei Kant erfolgt eine Verengung und Vertiefung des Begriffs Moral auf die Autonomie des Gewissens jedes Einzelnen.

(Quelle: Springer Gabler Verlag (Herausgeber), Gabler Wirtschaftslexikon)

Ausgabe 2015/02

Ausgabe 2015/02

Dieser Artikel erscheint auch in unserem Kundenmagazin FERCHAU Aktuell. Möchten Sie weitere spannende Artikel lesen?

Download pdf