Image: „Roboter, die denken, gibt es nicht!“FERCHAUFERCHAU
MenschenGespräch mit Prof. Michael Decker

„Roboter, die denken, gibt es nicht!“

Lesezeit ca.: 4 Minuten
Susanne Faschingbauer

Susanne Faschingbauer

freie Journalistin

Wenn Maschinen selbständig entscheiden, brauchen sie Moral. Die Regeln dafür gibt ihnen der Mensch vor. Doch welche sind das? Ein Gespräch mit Prof. Michael Decker, Leiter des Instituts für Technikfol­gen­ab­schät­zung.

09. Juli 2015

Können Maschinen den Menschen ersetzen?

Michael Decker: Maschinen übernehmen längst mehr als standardi­sierte Handgriffe. Sie werden künftig Autos steuern oder Alte und Kranke pflegen. Doch kann das Ersetzen durch einen Roboter je komplett sein? Nehmen wir an, ein Rollstuhl fährt vollautonom in einem Krankenhaus. Er holt den Patienten von Station 5 ab und bringt ihn in den Keller zum Röntgen. Technisch würde man sagen, der Pfleger, der den Rollstuhl schiebt, ist damit ersetzt. Es spielen aber auch zwischen­mensch­liche Faktoren eine Rolle. Den Plausch im Fahrstuhl kann der Roboter nicht leisten. Man muss genau hinsehen: Wozu ist der Roboter in der Lage und wo liegen seine Grenzen? Wenn es gelingen soll, dass Maschinen den Menschen ersetzen, dann muss das in allen Bereichen gelingen, nicht nur im technischen.

Wenn Roboter den Menschen ersetzen oder ergänzen, stellt sich die Frage: Können Maschinen moralisch entscheiden?

Decker: Maschinen entscheiden ja nicht selbständig. Sie entscheiden nach Regeln, die ihnen zuvor jemand programmiert hat. Die Frage muss daher lauten: Wie sollen Roboter Menschen ersetzen? Sollen sie auch moralische Entschei­dungen treffen und, wenn ja, nach welchen moralischen Grundsätzen?

In der Pflege sind moralische Beurteilungen unausweich­lich. Welche Regeln könnte es geben, aufgrund deren Maschinen entscheiden?

Decker: Das ist bislang nicht geklärt. Eine Debatte darüber muss dringend geführt werden. Ich gebe Ihnen ein Beispiel für ein moralisches Dilemma: In einem Altenheim kommen zwei Klingelzei­chen gleichzeitig aus den Zimmern. Die Frage, die sich der Pfleger oder der Roboter nun stellt: Zu wem gehe ich zuerst? Der Mensch entscheidet auch nach Sympathie oder nach Gewohnheit. Herr Müller klingelt ständig, Frau Meier hingegen meldet sich nur, wenn sie Hilfe braucht. Für Pfleger gibt es unangenehme Patienten, zu denen sie weniger gern gehen. Maschinen sind da deutlich entspannter. Wenn die Datenlage bekannt ist und wir uns auf programmier­bare Fairness­re­geln geeinigt haben, dann kann der Roboter diese letztend­lich besser umsetzen. Denn natürlich besteht die Gefahr, dass Herr Müller gestürzt ist und wirklich jemanden braucht.

Welche moralischen Dilemmata könnten beim autonomen Fahren auftauchen?

Decker: Es besteht die Chance, dass ein autonomes Auto besser fährt als der Mensch. Dafür müssen die Programmierer aber wissen, welche Regeln sie den Fahrzeugen mitgeben sollen. Nehmen wir an, ein Kind läuft Ihnen vors Auto. Der Bremsweg ist zu kurz, Sie können entweder links in den Gegenver­kehr ausweichen oder rechts in die parkenden Autos. Alle wissen: Das ist das größte Unglück, das passieren kann. Jede Reaktion, die Sie als Mensch in dieser außerordent­li­chen Situation zeigen, ist irgendwie toleriert. Mit der Technik haben wir auf einmal neue Möglichkeiten. Zwar kann sie die Physik nicht überlisten, aber sie kann gezielt die Fahrtrich­tung verändern – besser als der Mensch. Wir könnten sagen: Ein autonomes Auto soll immer mitrechnen, wie es beispiel­weise durch geschicktes Entlangschrammen an parkenden Autos seine Bremswir­kung verbessern kann. Genauso könnten sich Fahrzeuge unterein­ander über ihre Knautsch­zonen verständigen. Dann würden sie diese Informationen nutzen, um eine optimale Wirkung dieser Knautsch­zonen zu berechnen, damit es für alle glimpflich ausgeht. Um dies zu programmieren, müssen wir als Gesellschaft zuerst die Fragen beantworten: Wen schützen wir? Immer das Kind oder immer das Auto mit den meisten Personen? Bislang wissen wir nicht, was wir dem Programmierer sagen würden.

»The Edge Question« ist eine Frage, die der Literatur­agent John Brockman prominenten Wissenschaft­lern und Künstlern einmal im Jahr stellt. 2015 heißt sie: was denken sie über Maschinen, die denken?

Decker: Da denke ich, die gibt es nicht.

Weshalb?

Decker: Was verstehen Sie unter »denken«? Denken nur Menschen? Oder auch Tiere? Ich sage, dass nur Menschen denken. Sie entscheiden rational, geben Gründe für ihr Handeln an, können sich in sozialen Kontexten verorten. Das ist Maschinen nicht möglich. Die technische Autonomie reicht nicht an die Autonomie von Menschen heran.

Es gibt Wissenschaftler, die der Meinung sind, sie könnten Maschinen ein Bewusstsein programmieren.

Decker: Wenn wir so weit gehen, müssten wir auch akzeptieren, dass Roboter sagen: Das mache ich nicht, weil ich keine Lust habe. Damit wäre für mich der wesentliche Aspekt von Technik verloren­ge­gangen. Es würde keinen Sinn ergeben, so etwas zu kaufen. Es leben mehr als sieben Milliarden Menschen auf der Erde. Es gibt also keinen Mangel an Wesen, die ich mit Respekt und Würde behandeln »muss«. Ich wüsste daher nicht, warum man solche Systeme bauen sollte, mal davon abgesehen, dass man technisch davon noch weit entfernt ist.

Moral bezeichnet die Regeln, die das Handeln von Menschen bestimmen oder bestimmen sollten, wobei Menschen auf den Verstoß gegen diese Regeln mit Schuldge­fühlen reagieren. Die »mores« umfassten traditio­nell das Spektrum von den Konventionen bis zu sanktions­be­wehrten Rechtsre­geln. In der Philosophie bei Kant erfolgt eine Verengung und Vertiefung des Begriffs Moral auf die Autonomie des Gewissens jedes Einzelnen.

(Quelle: Springer Gabler Verlag (Herausgeber), Gabler Wirtschafts­le­xikon)

Ausgabe 2015/02

Ausgabe 2015/02

Dieser Artikel erscheint auch in unserem Kundenmagazin FERCHAU Aktuell. Möchten Sie weitere spannende Artikel lesen?

Download pdf