Die Asimovschen Gesetze

On 24. August 2012, in Philosophie, Technik, by Ingo

Ich denke gerade über meine Master-Arbeit nach und komme dabei auf den einen oder anderen interessanten Nebengedanken, der da nun nicht wirklich viel zu suchen hat, aber vielleicht Basis anderer Arbeiten sein könnte. Im Kern geht es um die Autonomie von autonomen Systemen aller Art. Dass Roboter hier einen zentralen Punkt darstellen, ist allein deshalb schon sinnvoll, weil sich die meisten Menschen intuitiv viel mehr darunter vorstellen können, als unter einer Software, die automatisch Geschäftsabschlüsse tätigt, wie es beispielsweise an der Börse der Fall ist

Wenn nun von Robotern die Rede ist, und dann auch noch solchen, die selbstständig handeln können sollen, dann ist es schwer, um die Asimovschen Robotergesetze herumzukommen. Grundsätzlich gibt es nur drei Paragraphen. Drei einfache Regeln:

§1. Ein Roboter darf kein menschliches Wesen verletzen oder durch Untätigkeit gestatten, dass einem menschlichen Wesen Schaden zugefügt wird.
§2. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.
§3. Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.

Reicht das schon? Und wären dann nicht sogar einige Einsatzgebiete heutiger Roboter völlig undenkbar? Ich bin verlockt, die einzelnen Regeln je für sich selbst aufzudröseln.

§1. Ein Roboter darf kein menschliches Wesen verletzen oder durch Untätigkeit gestatten, dass einem menschlichen Wesen Schaden zugefügt wird.

Die Regel sagt aus, dass ein Roboter explizit nichts tun darf, was einen Menschen verletzt und darüber hinaus, muss die Maschine die Menschen vor Schaden bewahren. Würde ein Roboter also sehen, dass ein Mensch gleich von einem Auto überfahren wird, dann müsste er loslaufen und den Menschen wegschubsen. Auch dann, wenn die Maschine selbst vom Auto überfahren werden würde. Einen Konflikt mit §3 gäbe es nicht, denn die Untätigkeit würde zwar dazu führen, dass die Maschine sich selbst schützt, aber eben auch dazu, dass ein Mensch zu Schaden kommt – und das darf nicht zugelassen werden. Der erste Paragraph sagt nun aber nicht viel mehr aus, als dass eine Maschine niemals selbst entscheiden dürfte, einen Menschen aktiv zu verletzen.

§2. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.

§1 und  §2 schließen aber auch Handlungen aus, wie diejenigen, die wir heutzutage schon lange beim Einsatz von Robotern sehen können. Nehmen wir allein die Kampfroboter und Kampfdrohnen, die sich im Nahen Osten im Einsatz befinden. Da das US-Militär mehr und mehr Autonomie in die Systeme hineinbringen könnte, wäre ein Gesetz, dass es verbietet, dass Menschen verletzt werden, geradezu hinderlich. Man stelle sich einen MARSS-Roboter vor, der sich weigert, feindliche Soldaten zu erschießen.Oder einen Packbot, der Sprengfalle nicht entschärfen will, weil die Wahrscheinlichkeit besteht, dass er zerstört werden könnte, wenn bei der Entschärfung etwas schief geht. Nach §2 würde ein Roboter jeden menschlichen Befehl ausführen, solange dabei kein anderer Mensch durch bewusstes Handeln oder Untätigkeit verletzt wird. Ich könnte meinem Roboter also zwar befehlen, er solle meinen Nachbarn verprügeln, er würde diesen Befehl wohl aber ignorieren. Genauso könnte ich ihm befehlen, eine Zeitung kaufen zu gehen, während im nahen Fluss ein Kind ertrinkt – auch hier würde dieser Befehl wohl oder übel auf Ignoranz stoßen und von §1 übertrumpft werden.

§3. Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.

Diese Regel ist insofern sinnvoll, als dass die Anschaffung eines Roboters, beispielsweise als Haushaltshelferlein oder als persönlicher Assistent, sicherlich ein kostspieliges Unterfangen ist. Der Besitzer oder die Besitzerin möchte sicherlich nicht, dass die teure Maschine zerstört wird. Explizit geht es um die Existenz – Schäden werden also hingenommen, Zerstörung nicht. Ein Roboter ist also in der Lage, gefährliche Aufgaben auszuführen oder sich in einem Gebiet zu bewegen, dass ihm selbst Schaden zufügen würde, solange es nicht wahrscheinlich ist, dass er dabei zerstört wird. Das eben erwähnte ertrinkende Kind würde aber trotzdem gerettet werden, auch wenn die Maschine nicht wasserdicht konstruiert ist und ein Rettungsversuch mit der eigenen Zerstörung einherginge.
Was ist aber, wenn ich nun versuche meinen Roboter zu zerstören? Angenommen, ich will ihn nicht mehr haben oder kaufe mir einen Neuen – und will ihn verschrotten, wie ein altes Auto? Nun, vermutlich würde die Maschine weglaufen. Sie darf keine Menschen verletzten – aber sie darf sich wehren. Würde ich nun also mit einem Vorschlaghammer auf sie zulaufen, um sie in Stücke zu schlagen, würde sie mich womöglich entwaffnen, ohne mich zu verletzten. Aber wie werde ich die Maschine dann wieder los? Wie besiege ich die Geister, die ich rief? Das ist ein Problem. Keine dieser Maschinen, die sich an das dritte Gesetz halten, könnten jemals verschrottet werden. Sie würden es schlicht nicht zulassen.

Insgesamt gibt es noch ein paar andere Probleme. Was macht eine Maschine, die nicht zulassen darf, dass ein Mensch durch ihre Untätigkeit zu schaden kommt, wenn sie eine Straßenschlägerei sieht? Offensichtlich kommen Menschen zu Schaden – sie sind gerade im Begriff sich gegenseitig zu verletzten. §1 verbietet es, Schaden durch Unterlassen entstehen zu lassen. Somit müsste die Maschine eingreifen und die sich prügelnden mit sanfter Gewalt, ohne sie zu verletzten, voneinander trennen. Sie müsste sie im Grunde festhalten, bis sie sich wieder beruhigt haben. Und so eine Maschine kann unglaublich viel Geduld haben…. Weiterhin könnte man solche Maschinen niemals als Zuschauer bei Boxkämpfen, Sumoringen oder Karate-Veranstaltungen mitnehmen. Menschen verletzten sich dabei gegenseitig und die Maschinen wären gezwungen einzuschreiten und die sich streitenden Menschen voneinander zu trennen. Man könnte ihnen ja nicht einmal befehlen, es nicht zu tun, denn §1 steht über §2 und kollidiert ganz eindeutig damit. Müsste man den Maschinen dann nicht ein „zulässiges Maß“ an Verletzungen implementieren? Das wiederum wirft eine ganz neue Fragestellung mit ganz neuen Problemen auf: Kann es Verletzungen geben, die wir Menschen uns gegenseitig zufügen wollen? Eine Maschine darf uns keine Verletzungen zufügen, wir uns gegenseitig aber schon? Warum? Wäre es dann nicht auch akzeptabel, gegen eine Maschine Kampfsport zu betreiben? Sicherlich wären die Asimovschen Gesetze damit hinfällig, aber es wirft ein ganz neues Licht auf unsere menschliche Vernunft. Wir sind also, qua Mensch, in der Lage, uns aus vernünftigen Gesichtspunkten betrachtet, im Rahmen des Sports, gegenseitig zu verletzten. Wir würden aber nicht wollen, dass wir von einer Maschine verletzt werden. Es leuchtet mir ehrlich gesagt nicht ein, warum nicht. Vielleicht, weil ein menschlicher Boxer irgendwann erschöpft ist und sich als besiegt ergeben kann? Nun – dann statten wir die Maschine mit Trefferzonen aus die statistisch berechnen, wann ein durchschnittlicher Kämpfer oder eine durchschnittliche Kämpferin bei einem bestimmten Schwierigkeitsgrad erschöpft und besiegt wäre – damit könnte sich auch die Maschine ergeben.

Es scheint da aber noch mehr zu sein, dass uns Menschen Angst macht. Immer, wenn ich mich mit Freunden und Bekannten über das Thema unterhalte, wird klar, dass vieles davon mit der kühlen Computerlogik zu tun hat, die den Maschinen anhaftet. Sie fühlen nicht in dem Sinne wie wir Menschen – sie berechnen die Wahrscheinlichkeit für den Ausgang einer Handlung anhand von statistischen Prognosen. Das menschliche Gehirn funktioniert zwar ganz ähnlich – aber wir sind auch in der Lage etwas wie ein schlechtes Gewissen zu haben. Skrupel zu empfinden, Angst vor einer Entscheidung zu haben, darunter zu leiden, dass wir auf eine bestimmte Art und Weise gehandelt haben. Reue, Mitleid, Scham, Angst – all das geht einer Maschine völlig ab. Zumindest im Moment noch. Und selbst wenn es eines Tages möglich wäre, Maschinen mit Emotionen zu erschaffen, [1] dann ist dennoch nicht davon auszugehen, dass sie genau so empfinden werden wie Menschen – sondern womöglich „irgendwie anders“. Wie, werden wir aber nie wirklich erfahren. Wir können ja selbst bei anderen Menschen nur sehr grob sagen, wie sie sich wohl jetzt gerade fühlen mögen, aber niemals exakt wiedergeben, was gerade in einer anderen Person vor sich geht. All zu oft können wir ja selbst nicht mal sagen, wie es uns gerade geht. Klar, ganz oberflächlich betrachtet ließe sich die Frage, wie‘s denn geht, einfach mit „gut“ oder „schlecht“ beantworten. Wenn ich aber ein wenig darüber nachdenke, dann könnte ich keine genaue Antwort darauf liefern. Wie‘s mir geht? Ich weiß nicht, was damit gemeint ist. Ich müsste darüber nachdenken in welchem Zusammenhang die Frage gemeint ist. Wie ich mich fühle? Das kann ich nach kurzer Introspektion sicherlich beantworten. Warum ich mich aber so fühle, wie ich mich gerade fühle? Dazu braucht es dann schon ein wenig intensiveres Nachforschen.
Für die nüchterne Maschinenlogik liegt das alles auf der Hand. Selbst wenn sie Emotionen auf irgendeine Art und Weise nachstellen (oder vielleicht sogar empfinden!) könnten, wären sie jederzeit in der Lage zu sagen, wie und warum sie gerade in diesem oder jenem Zustand sind. Immerhin ist alles minutiös gespeichert. Was vielleicht ein wenig Menschlichkeit in die Maschine brächte, wäre die Fähigkeit zu vergessen. Da wir aber noch nicht genau wissen, wie der Mechanismus des Vergessens und Verdrängens beim Menschen so funktioniert, wird das ein langer Weg, bis die Maschinen so weit sein werden.

Die Asimovschen Gesetze sind also durchaus sinnvoll – können aber zu Konflikten führen, wenn sich die Maschinen wirklich 1:1 daran halten. Wir wären niemals in der Lage, sie zu verschrotten und sie würden uns jederzeit vor uns selbst beschützen wollen, weil sie nicht zulassen dürfen, dass Menschen verletzt werden. Letztlich könnte es dazu führen, dass sie uns unserer Autonomie berauben, denn es kann Situationen geben, in denen wir Menschen uns gegenseitig verletzten und Schaden zufügen wollen. Dass das nicht immer sehr vernünftig ist, steht außer Frage – soll hier aber nicht weiter diskutiert werden. Die nüchterne Computerlogik könnte also die Intention entwickeln, Menschen vor Menschen beschützen zu müssen. Und wenn man Menschen einsperrt, sie quasi unter Hausarrest setzt, dann verletzt man sie ja nicht – man schränkt nur ihre Bewegungsfreiheit ein. Mit allem nötigen versorgt werden sie ja trotzdem – dazu sind die Maschinen ja gebaut worden.

Vielleicht sollten wir uns bessere Gesetze für autonome Roboter einfallen lassen. Oder einfach netter zueinander werden und aufhören uns gegenseitig schaden zu wollen. Ersteres scheint allerdings das erreichbarere Ziel.

Footnotes    (↵ returns to text)

  1. Ich würde es vorziehen, wenn meine Haushaltsmaschine oder die, die mein Auto bauen, sich nicht ob der eintönigen, anstrengenden Arbeit beschweren und womöglich sogar noch auf die Idee kommen, eine Gewerkschaft zu gründen…
Tagged with:  

Kommentar verfassen

%d Bloggern gefällt das: