Roboterethik

Gestern war ich zum Digitalen Salon des HIIG für eine Gesprächsrunde zum Thema Roboterethik eingeladen (das Video dazu hier. Hier sind einige Aspekte des Themas, die ich während meiner Vorbereitung gefunden habe. Das Ganze hat keinerlei Anspruch auf Vollständigkeit und dient vor allem als Startpunkt für weitere Recherchen.

Roboterethik ist die Anwendung der Ethik auf die Robotik. Sie behandelt die Entwicklung, Herstellung und Verwendung von Robotern. … 2004 wurde in Sanremo (Italien) das erste internationale Symposion zur Roboterethik abgehalten und an dieser Stelle auch von Gianmarco Veruggio der Begriff geprägt. Bereits zuvor wurde das Thema in der Science-Fiction ausführlich behandelt, beispielsweise im Rahmen der von Isaac Asimov entwickelten Robotergesetze.

Roboterethik auf Wikipedia

Asimov’s Robotergesetze

Kaum ein Artikel zu Roboterethik kommt ohne den Verweis auf Asimovs Robotergesetze aus, die er 1942 in seiner Kurzgeschichte Runaround veröffentlichte.

  1. Ein Roboter darf kein menschliches Wesen (wissentlich) verletzen oder durch Untätigkeit gestatten, dass einem menschlichen Wesen (wissentlich) Schaden zugefügt wird.
  2. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.
  3. Ein Roboter muss seine Existenz beschützen, so lange dieser Schutz nicht mit Regel eins oder zwei kollidiert.

Ob diese Gesetze als Inspiration für eine Roboterethik herhalten sollten, ist ein anderes Thema:

Personally, I think Asimov’s Three Laws are a terrible inspiration for any roboethics code. The laws were created to be used as a plot device. When they disintegrated, a story came out of it. Unfortunately, they’ve actually been taken seriously as a possible solution to the problem of human-unfriendly robots and AI for many decades now. But Asimov himself said, “There was just enough ambiguity in the Three Laws to provide the conflicts and uncertainties required for new stories, and, to my great relief, it seemed always to be possible to think up a new angle out of the 61 words of the Three Laws.”

Michael Anissimov

EURON und euRobotics

euRobotics und die Vorgängerorganisation EURON ist eine Interessensvertretung zahlreicher Universitäten, Unternehmen und Verbände im Bereich der Robotik. Die von EURON 2006 veröffentlichte Roboethics Roadmap trug großen Anteil an der Vertiefung des Themas.

Kate Darling

Kate Darling (@grok_), MIT Research Specialist beschäftigt sich vor allem mit den Fragen der sozialen Interaktion mit „Robotern“. Sie hat einen spannenden Vortrag auf der republica dieses Jahr gehalten.

Der Tagesspiegel nutzte die Gelegenheit und hat diesen Artikel veröffentlicht: Wie viel Moral brauchen Maschinen?

Ronald Arkin

My research hypothesis is that intelligent robots can behave more ethically in the battlefield than humans currently can.

NY Times, 24. November 2008

Ronald C. Arkin ist Professor am Georgia Institute of Technology und hat u.a. einen Kurs zu Robots and Society gelehrt. Er gilt vor allem als Experte für Fragen der Ethik bei autonomen, tödlichen Drohnen und Robotern. Dabei gilt zu beachten, dass seine Arbeit vor allem vom amerikanische Militär finanziert wird.

Südkoreas ‚Robot Ethics Charter‘

Anab hat mich auf diesen Artikel von 2007 hingewiesen, in dem die Entwicklung eines Ethikkodexes für Roboter in Südkorea mit offizieller Regierungsunterstützung beschrieben wird.

The government plans to set ethical guidelines concerning the roles and functions of robots. The move anticipates the day when robots, particularly intelligent service robots, could become a part of daily life.

–the Korean ministry of commerce, industry and energy

Ein weiterer Artikel dazu enthält dieses Zitat von Mark Tilden, Designer des Spielzeugroboters RoboSpaien:

From experience, the problem is that giving robots morals is like teaching an ant to yodel. We’re not there yet, and as many of Asimov’s stories show, the conundrums robots and humans would face would result in more tragedy than utility.

Nach der initialen Meldung zum Vorhaben der südkoreanischen Regierung wurde es um das Vorhaben sehr ruhig. Einzig ein Mock-Up aus dem Jahr 2012 von Chris Field wie dieser Kodex aussehen könnte, lässt sich finden. Fields hat ebenfalls Japans 10 Prinzipien des Robotergesetzes erfunden, die auf den Ten Principles of Robot Law des Manga-Autors Osamu Tezuka basieren. Beide Ansätze hat Fields für seine Thesis Creative Perspectives on Future Human-Robot Relations in Japan entwickelt.

Die philosophische Komponente

Der Philosoph Volker Gerhardt, Mitglied des Deutschen Ethikrats, fragte im Mai 2010 in der SZ Wissen, ob wir eine Roboterethik brauchen.

[Intelligente Maschinen] sind darauf angelegt, aus gewonnenen Erfahrungen zu lernen, damit sie flexibel auf unvorhergesehene Reize reagieren. Sie brauchen eine Sensibilität für die Situation, die sie bewältigen sollen. Zu der Situation aber können auch moralische Grenzbedingungen gehören, die vom Roboter erfasst und in seinem Arbeitsprogramm berücksichtigt werden müssen.

David Gunkel

David Gunkel, Professor an der Universität von Northern Illinois, hat 2012 mit dem Buch The Machine Question: Critical Perspectives on AI, Robots, and Ethics (Artikel zur Veröffentlichung) eine Übersicht der aktuellen Diskussion veröffentlicht.

The machine question poses a fundamental challenge to moral thinking, questioning the traditional philosophical conceptualization of technology as a tool or instrument to be used by human agents. Gunkel begins by addressing the question of machine moral agency: whether a machine might be considered a legitimate moral agent that could be held responsible for decisions and actions. He then approaches the machine question from the other side, considering whether a machine might be a moral patient due legitimate moral consideration. Finally, Gunkel considers some recent innovations in moral philosophy and critical theory that complicate the machine question, deconstructing the binary agent–patient opposition itself.

Gedanken

  • Was definieren wir eigentlich als Roboter?
  • Science Fiction beschäftigt sich schon sehr lange mit dem Thema (s. Asimov) und gibt uns unzählige, mögliche Szenarien.
  • Ist der Kern dieser Frage die Projektion unseres Selbst in Objekte und/oder die Ausübung von Kontrolle?
  • Wie können wir etwas in Maschinen programmieren, von dem wir nicht mal bei uns selbst sicher sind?
  • Wenn Ethik ein anderes Wort für Regeln ist, dann wollen wir wissen, ob wir Roboter reglementieren müssen und damit implizit die Hersteller und Verantwortlichen für die Roboter (Gedanke inspiriert von Igor).
  • 2004 bis 2010 scheinen die „goldenen“ Jahre der Roboterethik gewesen zu sein. Die meisten Artikel und Bücher stammen aus dieser Zeit.

Veröffentlicht von

Johannes Kleske

Co-Gründer von Third Wave, lebt in Berlin, denkt nach über die Zukunft von Arbeit, Stadt und Kommunikation, mag sowohl guten Kaffee als auch guten Tee. Newsletter, Twitter, LinkedIn, Xing