Professor Oliver BendelProfessor Oliver Bendel ist Philosoph und promovierter Wirtschaftsinformatiker. (Foto: Oliver Bendel) | Oliver Bendel
MenschenInterview mit Maschinenethiker Oliver Bendel

»Roboter werden Generalisten«

Lesezeit ca.: 4 Minuten
Lisa Kräher

Lisa Kräher

freie Journalistin

In Zukunft sollen Roboter direkt mit dem Menschen zusammenarbeiten – ob in der Pflege oder in der Produktion. Doch wie lernen diese Systeme, mit dem Menschen zu interagieren? Professor Oliver Bendel, Philosoph und promovierter Wirtschaftsinformatiker, beschäftigt sich mit dieser Frage. An der Hochschule für Wirtschaft der Fachhochschule Nordwestschweiz lehrt er das Fach Informationsethik und forscht in der Maschinenethik.

09. Februar 2016

Bei Ethik denkt man zuerst an Kant – nicht an Maschinen. Wie passt das zusammen?

Prof. Oliver Bendel: Die Ethik war bisher eine Menschenethik. In Zukunft müssen wir auch nach der Moral von Maschinen fragen. Das liegt daran, dass immer mehr autonome und teilautonome Maschinen Entscheidungen mit moralischen Implikationen treffen. Dabei geht es nicht nur um das Handeln nach Regeln, sondern auch darum, Folgen abzuwägen.

Was ist der Unterschied zwischen menschlicher Moral und Maschinenmoral?

Bendel: Nehmen wir als Beispiel einen Autounfall. Alles geschieht innerhalb weniger Sekunden. Der Mensch handelt im Affekt, eine rationale Entscheidung ist nicht möglich. Die Situation ist für ihn vielleicht gar keine moralische. Die Maschine, in diesem Fall das selbstfahrende Auto, ist schneller und kann Möglichkeiten abwägen. Für sie könnte sich eine moralische Situation ergeben, auch wenn das paradox klingt.

Welche Rolle spielt Ethik bei der direkten Zusammenarbeit von Mensch und Roboter?

Bendel: Hier sind soziale Robotik und Maschinenethik relevant. Die soziale Robotik beschäftigt sich damit, wie Maschinen sozialverträglich handeln. Das heißt, dass Roboter den Menschen entlasten, ihn nicht verletzen, ihn schützen sollen. Dazu gehört zum Beispiel, dass sie den menschlichen Kollegen nicht so hart anfassen wie robuste Gegenstände. Es geht auch um die Gestaltung der Roboter, ob sie Stimme und Aussehen haben, die für den Menschen angenehm sind. Kern der Maschinenethik ist, dass der Roboter Standards, Normen und ein moralisches Verhalten lernt. Am Rande geht es auch um Fragen der Haftung und die Verantwortung bei Unfällen.

Wie sieht der optimale Roboterkollege aus?

Bendel: Untersuchungen haben gezeigt: Wenn der Roboter sehr menschlich aussieht, aber nicht perfekt umgesetzt ist, löst das bei vielen Unbehagen aus. Ein gelungenes Beispiel ist Roboy, ein humanoider Roboter aus der Schweiz. Sein Körper ist einem Skelett mit Muskeln und Sehnen nachempfunden. Mit seinen großen Augen und dem lächelnden Mund sieht er wirklich sympathisch aus. Als Kollege sollte der Roboter weniger kindlich, sondern seriöser aussehen. Der Roboter kann natürlich auch einfach eine Werkzeugform haben.

Wie bringe ich einem Roboter Moral bei?

Bendel: Roboter können auf drei Arten lernen. Entweder regelbasiert, das heißt, dass im System Regeln definiert sind, an die sie sich halten. Der Saugroboter lernt beispielsweise: wenn Staubfluse, dann saugen; wenn Geldmünze, dann stoppen. Oder sie lernen fallbasiert: Die Entscheidung beruht dann auf einer Menge von Fällen, also gesammelten Daten. Das System vergleicht mit den Fällen, in denen es gut gelaufen ist, und wählt die Situation aus, die am ähnlichsten ist. Die dritte Variante: eine Referenzperson, die den Roboter trainiert und ihm zum Beispiel vormacht, wie man eine Flasche öffnet. Das könnte auch beim autonomen Auto funktionieren. Der Computer fährt erst mit und lernt vom Fahrer. Das setzt natürlich voraus, dass man vorbildlich fährt. Das Lernen durch Nachahmen ist wichtig, weil die Aufgaben immer komplexer werden. Für die Fabriken ist diese Möglichkeit genial. Denn in der Industrie 4.0 ändern sich Anforderungen von heute auf morgen. Die Roboter werden Generalisten.

Hält das Fach Ethik nun Einzug in die Ausbildung von Informatikern und Ingenieuren?

Bendel: Im Moment richten einige Hochschulen Lehrstühle für Informations- und Technikethik ein. Meine Studenten sind Wirtschaftsinformatiker. Am Anfang halten sie Ethik oft für ein Laberfach. Aber wenn sie sehen, was man damit machen kann, dass Ethik auch eine Gestaltungsdisziplin sein kann, sind sie fasziniert. Viele meiner Ethikkollegen können mit dem Thema der Maschinenethik nichts anfangen. Die Keimzellen sind eher in der Informatik und der künstlichen Intelligenz zu finden. Mein großer Traum wäre ein eigenes Maschinenethik-Institut.

Wenn der Roboter lieb zu uns ist, müssen wir dann auch lieb zu ihm sein?

Bendel: Es wird zwar schon seit 50 Jahren über die Rechte von Robotern diskutiert. Aber im Moment und für die nächsten 50 Jahre halte ich Roboter nicht für leidensfähige Wesen. Dass künstliche Intelligenz Gefühle und Empathie empfindet, ist Science-Fiction.

Ausgabe 2016/01

Ausgabe 2016/01

Dieser Artikel erscheint auch in unserem IT-Magazin <atFERCHAU>. Möchten Sie weitere spannende Artikel lesen?

Download pdf