Kate Darlings Vortrag auf der Republica 13 schlug erwartungsgemäß hohe Wellen. Wir leben in einer Welt, die mehr und mehr auf Maschinen angewiesen ist. Eine Welt, die Robotern immer mehr vertrauensvolle Aufgaben übertragen will. Nicht nur zum Minensprengen, sondern auch in der Pflege und im Haushalt sollen uns die Maschinen in naher Zukunft unter die Arme greifen. Aber müssen wir unsere eigenen Konstruktionen vor uns selbst schützen? Ich denke nicht.

Darlings Argumentation läuft in etwa so:

Roboter werden vermenschlicht. Ein US-General ließ den Test eines Minen sprengenden Roboters abbrechen, weil er es für unmenschlich empfand, wie sich die Maschine mit nur noch einem von sechs Beinen über das simulierte Schlachtfeld zog. Probanden die einen Spielzeug-Dinosaurier zerstören sollten, reagierten bestürzt, wenn nicht sogar entsetzt, auf diese Anweisung. Sie hatten mittlerweile eine emotionale Bindung zu dem Gerät hergestellt. Und auch von Soldaten, die im Kampfeinsatz einen (ferngesteuerten!) PackBot verlieren, der eine Sprengfalle nicht entschärfen konnte, empfinden Trauer über diesen Verlust. Immerhin hat die Maschine ihnen ja schon mehrfach das Leben gerettet. Weil wir Menschen nun so emotional auf die Maschinen reagieren, die wir bauen, sollte es Gesetze geben, die sie unter Schutz stellt, genauso wie wir Tiere schützen. Letztlich geht es, so Darling, ja nicht darum die Tiere zu schützen, weil sie leiden könnten, sondern weil wir unsere eigene Menschlichkeit erhalten wollen. Denn sonst dürften wir nicht die einen Tiere schützen und die anderen essen, sondern müssten sie alle gleichermaßen schützen – eben weil sie leid empfinden können.

Warum ein wenig gesunder Menschenverstand die Welt zu einem besseren Ort macht

Das Problem an der Argumentation ist, dass es von der falschen Seite aus geht. Wir sollten nicht anfangen, die Dinge, die wir bauen, zu schützen, weil wir einen Verlust an Menschlichkeit fürchten. Wir sollten stattdessen anfangen reflektiert an das Problem heranzugehen. Wir sollten uns klar und deutlich vor Augen führen, dass ein Roboter eine Maschine ist, die wir gebaut haben. Eine Maschine, die nicht in der Lage ist, Leid zu empfinden, kein Selbstbewusstsein hat, ja in der nicht einmal phänomenologisch etwas vorgeht. Selbst ein noch so geschickt und komplex konstruierter Androide wäre etwa das, was David Chalmers als „philosophischen Zombie“ bezeichnen würde. Ein Wesen, dass womöglich funktional mit uns Menschen übereinstimmen könnte, aber keinesfalls über eine phänomenale Repräsentation verfügt. Ein solcher Androide würde womöglich einen Schmerzensschrei äußern, würde er getreten oder geschlagen werden – aber nur, weil das eine Funktion ist, die er in diesem Moment ausführt.

Die Antropomorphismus-Debatte ist ein moralisches Problem – aber von der falschen Seite her. Maschinen werden vermenschlicht und es wird Mitleid empfunden, wenn sie beschädigt werden. Sicher: Wenn es uns Unbehagen bereitet, eine Maschine zu zerstören, dann gibt es keinen vernünftigen Grund, es zu tun. Genauso wie es für alle anderen Dinge, die uns Unbehagen bereiten, keinen vernünftigen Grund gibt, sie zu tun. Der Vergleich mit dem Tierschutz geht meiner Ansicht nach aber fehl. Selbstverständlich ist es nicht recht, ein Tier zu quälen. Ein Tier ist ein empfindungsfähiges Wesen. Einen Roboter dagegen könnte niemand quälen. Er ist nicht in der Lage etwas wie Qual zu empfinden. Er kann lediglich kaputt gehen. Der Denkfehler liegt dabei in der metaphorischen Übertragung von Eigenschaften. Es wird Mitleid empfunden, wenn eine Maschine zerstört wird, indem ihr einfach unterstellt wird, dass sie etwas empfinden könnte.

Statt nun also Roboterschutz-Gesetze zu erfinden, um unsere sozialen Werte zu schützen, sollten wir alle besser zur Vernunft kommen. Wir sollten reflexiv mit der Technologie umgehen, die wir benutzen. Und genau das ist eine Ebene tiefer, als das Erfinden neuer Gesetze: Wir müssen uns dringend klar machen, dass es falsch ist, Maschinen zu vermenschlichen.

Angenommen, Roboter würden tatsächlich unter Schutz gestellt. Wozu eigentlich? Gibt es einen vernünftigen Grund, einen Maschine absichtlich zu zerstören? Gut, Ok. Es gibt Menschen, die teures Geld für iPhones oder iPads ausgeben und sie in YouTube-Videos verbrennen, beschießen, unter Strom setzen oder mit Vorschlaghämmern malträtieren. Das zeigt, dass Menschen nicht immer einen vernünftigen Grund brauchen, um zu tun, was sie gerade tun. Trotzdem: Es handelt sich bei einem iPhone sicherlich um eine Maschine und noch viel sicherer empfindet es rein gar nichts, wenn es zerstört wird. Es ist allerhöchstens eine Torheit, so viel Geld für etwas auszugeben, dass lediglich zerstört werden soll. Schlussendlich kann aber jeder mit seinem Eigentum verfahren, wie er mag.
Ein anderer Gedanke: Was mache ich mit einem alten Roboter, wenn er unter Schutz steht? Darf ich ihn dann nicht mehr gegen ein neues Modell austauschen? Muss ich ihm dann eine Art digitalen Altenteil zukommen lassen und ihn hegen und pflegen, reparieren und updaten, bis er eines Tages von selbst kaputt geht, weil wichtige Bauteile durchbrennen und nicht mehr nachgekauft werden können? Ich will es mit einem Auto vergleichen: Irgendwann ist ein Auto so alt, dass es sich wirtschaftlich nicht mehr lohnt, es zu reparieren. Sicher ist es dann ein liebgewonnener Teil des Alltags und hat seinen den Eigentümer oder seine Eigentümerin in zahlreichen Gelegenheiten sicher, warm und wohlbehütet von A nach B gebracht. Oder es hat einfach nur Spaß gemacht es zu fahren und wahre Glücksgefühle bei 250 auf der Autobahn beschert. Trotzdem ist es irgendwann alt und kaputt und wird verschrottet. Das hindert uns nicht, Tränen zu vergießen, wenn das liebgewonnene Automobil seine letzte Fahrt in die Schrottpresse antritt. Aber leiden wir dann, weil wir denken, dass das Auto Schmerzen empfinden wird, wenn wir es verschrotten? Nein, wir leiden vielmehr darunter, dass ein zuverlässiges Stück Technologie aus unserem Leben verschwindet. Wir leiden darunter, dass die vielen Erlebnisse, die wir mit dem Stück Technologie verbinden, beendet sein werden. Es ist fast, als würde ein Haustier eingeschläfert werden. Das Tier empfindet dabei keine Schmerzen und es leidet auch nicht. Aber wir trauern trotzdem, weil ein liebgewonnener Teil unserer Umwelt nicht mehr ist und nie wieder kommt.

Es mach nicht falsch sein, antropomorphe Betrachtungen von Technologie zu erforschen. Es mag ebenfalls nicht falsch sein, die sprachlichen Mittel zu untersuchen, mit denen wir die Technologie, die wir erfinden und bauen mit Metaphern belegen und versuchen eine emotionale Bindung herzustellen. Es ist aber eindeutig falsch, wirklich eine emotionale Bindung zu dieser Technologie herzustellen und sie wie Menschen oder Tiere behandeln zu wollen. Wir sollten hier vernünftig sein. Wir sollten uns jederzeit klar und deutlich und unmissverständlich und auf einer ganz basalen Ebene klar machen, dass es einen Unterschied zwischen lebenden und nicht lebenden Entitäten gibt.

Wenn wir uns selbst und die Gesellschaft, in der wir leben, schützen wollen, dann kommt es genau darauf an. Wir müssen uns gegenseitig menschlich behandeln. Nicht Maschinen.

Quelle: Zeit

Die Maschine als „Wanton“

On 27. September 2012, in Philosophie, Technik, by Ingo

Harry Frankfurt hat in seinem vielzitierten Essay „Freedom of the will and the concept of a person“ das Konstrukt des „Wanton“ entworfen. Ein Wesen, das nur Wünsche oder Willen erster Ordnung hat. Ich frage mich dabei, ob eine autonome Maschine als ein solcher „Wanton“ gelten könnte – und ob das wirklich so schlimm wäre?

Nun aber mal langsam. Wünsche erster Ordnung? „Wie viele gibt‘s denn da?“ fragt sich vermutlich nun der eine oder andere. Grundlegend: Unendlich viele. Aber es ist, so Frankfurt, nicht wirklich hilfreich mehr als zwei Ebenen anzunehmen. Ein Wunsch erster Ordnung ist dabei etwas wie „Ich wünsche mir Gummibärchen“ oder „Ich wünschte, ich könnte heute Abend ins Kino gehen.“ Die Zweite Ordnung ist dann ein Wunsch der auf einen Wunsch erster Ordnung Bezug nimmt. Also: „Ich wünschte, ich würde mir wünschen, heute Abend ins Kino zu gehen.“[1] Dabei kommt es darauf an, dass ein Wunsch erster Ordnung zwar handlungsmotivierend ist, aber quasi durch einen Wunsch zweiter Ordnung bestätigt werden muss – als rationale Reflexionsebene.
Die zweite Ebene entscheidet darüber, ob ein Wunsch wirklich wünschenswert ist. Also: „Ich wünsche mir Gummibärchen.“ auf der ersten Ebene und „Ich wünschte ich würde mir Gummibärchen wünschen.“ auf der zweiten Ebene. Die zweite Ebene kann aber auch davon abweichen. So kann ich auf der ersten Ebene meinen Gummibärchen-Wunsch ausprägen und auf der zweiten Ebene denken „Ich wünschte, ich wünschte mir Salat, das ist nämlich viel gesünder.“ Für Frankfurt sind nur diejenigen Personen, die ihre Wünsche erster Ordnung mit Wünschen zweiter Ordnung bestätigen können.
Ganz ähnlich verhält es sich dann mit dem Willen. Es geht dann nämlich darum, einen Willen zu wollen, respektive die Frage, ob ich wirklich will, was ich will – also darum, ob ich zwar tun kann, was ich will aber auch wollen kann, was ich will. Wirklich echte Willensfreiheit besteht eben nur dann, wenn ich auch wollen kann, was ich will.

Wenn ich nun aber eine introspektive Selbstanalyse betreibe, dann stelle ich fest: In unglaublich vielen Alltagssituationen bin ich ein „Wanton“. Ich denke nicht darüber nach, ob es nun wirklich begehrenswert ist, Pizza zu bestellen oder Schnitzel zu essen oder ins Kino zu gehen. Ich habe einfach Lust darauf und mache es. Sicherlich wäge ich zwischen diesen Begehren ab (was mich zu einem „rationalen Wanton“ macht), aber so ganz alltäglich verlasse ich die erste Ebene der Wunsch- und Willensbekundungen nicht. Erst dann, wenn es um größere Anschaffungen geht, aber auch dann nur selten, überlege ich, ob es wirklich das ist, was ich will und/oder brauche. Sprich: „Ich will das neue iPhone! => Aber es scheint von der Verarbeitungsqualität her einfach grauenhafter Mist zu sein und ist sowieso nur ein Stück größer und ein bisschen schneller. Will ich das wirklich? Nein…“
Erfahrungsgemäß kann ich also im alltäglichen Leben ohne eine zweite (oder gar noch mehr) Reflexionsebene überleben. Und es tut meinem vernünftigen Umgang mit der Welt auch gar keinen Abbruch.

Das wiederum bringt mich zu den autonomen Maschinen. Wir wollen sie ja als Alltagshelferlein einsetzen. Also als Geräte, die ganz alltägliche Dinge tun sollen. Wäre es ihrer Autonomie abträglich, wenn sie nicht in der Lage sind, eine zweite Reflexionsebene ihres Willens auszuprägen? [2] Ich denke nicht. Es reicht vollkommen aus, wenn sie ihre Handlungen auf erster Ebene koordinieren können. Mehr machen wir Menschen im Alltag auch nicht. Und warum sollten wir von einer Maschine übermenschliche Fähigkeiten verlangen?
Wird die Maschine beispielsweise dazu eingesetzt die Wohnung sauber zu machen und aufzuräumen, dann wären einfache Ausprägungen wie „Ich sauge jetzt Staub.“ völlig ausreichend. Ein „Ich will staubsaugen wollen.“ ist relativ überflüssig, da eine Maschine kaum einen übergeordneten Grund braucht, um sich selbst zur Arbeit zu motivieren. Sie erkennt lediglich einen Handlungsbedarf (der Teppich ist schmutzig) und führt diesen in eine Handlung über (es wird gesogen). Auch eine Abwägung zwischen zwei verschiedenen Handlungen (Staubsaugen oder Abwaschen) kann auf erster Ebene im Rahmen eines statistisch errechneten Dringlichkeitsindexes getroffen werden. Es ist also gar nicht nötig, dass sich unsere autonome Maschine ihrer eigenen Handlungsmotivationen auf einer übergeordneten Ebene versichert. Somit darf sie ein Wanton sein, ohne dass es ihre Autonomie gefährden würde.

Footnotes    (↵ returns to text)

  1. Ein Gedanke, der womöglich entsteht, wenn es so langweilig ist, dass man so rein gar nichts mit sich selbst anzufangen weiß.
  2. Bei einer Maschine von „Willen“ oder Wünschen zu reden mag hier verwundern, ist aber, auf artifizieller Ebene, durchaus legitim, wie Andreas Matthias in seiner Arbeit „Automaten als Träger von Rechten“ herausgearbeitet hat.
Tagged with:  

Die Asimovschen Gesetze

On 24. August 2012, in Philosophie, Technik, by Ingo

Ich denke gerade über meine Master-Arbeit nach und komme dabei auf den einen oder anderen interessanten Nebengedanken, der da nun nicht wirklich viel zu suchen hat, aber vielleicht Basis anderer Arbeiten sein könnte. Im Kern geht es um die Autonomie von autonomen Systemen aller Art. Dass Roboter hier einen zentralen Punkt darstellen, ist allein deshalb schon sinnvoll, weil sich die meisten Menschen intuitiv viel mehr darunter vorstellen können, als unter einer Software, die automatisch Geschäftsabschlüsse tätigt, wie es beispielsweise an der Börse der Fall ist

Wenn nun von Robotern die Rede ist, und dann auch noch solchen, die selbstständig handeln können sollen, dann ist es schwer, um die Asimovschen Robotergesetze herumzukommen. Grundsätzlich gibt es nur drei Paragraphen. Drei einfache Regeln:

§1. Ein Roboter darf kein menschliches Wesen verletzen oder durch Untätigkeit gestatten, dass einem menschlichen Wesen Schaden zugefügt wird.
§2. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.
§3. Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.

Reicht das schon? Und wären dann nicht sogar einige Einsatzgebiete heutiger Roboter völlig undenkbar? Ich bin verlockt, die einzelnen Regeln je für sich selbst aufzudröseln.

§1. Ein Roboter darf kein menschliches Wesen verletzen oder durch Untätigkeit gestatten, dass einem menschlichen Wesen Schaden zugefügt wird.

Die Regel sagt aus, dass ein Roboter explizit nichts tun darf, was einen Menschen verletzt und darüber hinaus, muss die Maschine die Menschen vor Schaden bewahren. Würde ein Roboter also sehen, dass ein Mensch gleich von einem Auto überfahren wird, dann müsste er loslaufen und den Menschen wegschubsen. Auch dann, wenn die Maschine selbst vom Auto überfahren werden würde. Einen Konflikt mit §3 gäbe es nicht, denn die Untätigkeit würde zwar dazu führen, dass die Maschine sich selbst schützt, aber eben auch dazu, dass ein Mensch zu Schaden kommt – und das darf nicht zugelassen werden. Der erste Paragraph sagt nun aber nicht viel mehr aus, als dass eine Maschine niemals selbst entscheiden dürfte, einen Menschen aktiv zu verletzen.

§2. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.

§1 und  §2 schließen aber auch Handlungen aus, wie diejenigen, die wir heutzutage schon lange beim Einsatz von Robotern sehen können. Nehmen wir allein die Kampfroboter und Kampfdrohnen, die sich im Nahen Osten im Einsatz befinden. Da das US-Militär mehr und mehr Autonomie in die Systeme hineinbringen könnte, wäre ein Gesetz, dass es verbietet, dass Menschen verletzt werden, geradezu hinderlich. Man stelle sich einen MARSS-Roboter vor, der sich weigert, feindliche Soldaten zu erschießen.Oder einen Packbot, der Sprengfalle nicht entschärfen will, weil die Wahrscheinlichkeit besteht, dass er zerstört werden könnte, wenn bei der Entschärfung etwas schief geht. Nach §2 würde ein Roboter jeden menschlichen Befehl ausführen, solange dabei kein anderer Mensch durch bewusstes Handeln oder Untätigkeit verletzt wird. Ich könnte meinem Roboter also zwar befehlen, er solle meinen Nachbarn verprügeln, er würde diesen Befehl wohl aber ignorieren. Genauso könnte ich ihm befehlen, eine Zeitung kaufen zu gehen, während im nahen Fluss ein Kind ertrinkt – auch hier würde dieser Befehl wohl oder übel auf Ignoranz stoßen und von §1 übertrumpft werden.

§3. Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.

Diese Regel ist insofern sinnvoll, als dass die Anschaffung eines Roboters, beispielsweise als Haushaltshelferlein oder als persönlicher Assistent, sicherlich ein kostspieliges Unterfangen ist. Der Besitzer oder die Besitzerin möchte sicherlich nicht, dass die teure Maschine zerstört wird. Explizit geht es um die Existenz – Schäden werden also hingenommen, Zerstörung nicht. Ein Roboter ist also in der Lage, gefährliche Aufgaben auszuführen oder sich in einem Gebiet zu bewegen, dass ihm selbst Schaden zufügen würde, solange es nicht wahrscheinlich ist, dass er dabei zerstört wird. Das eben erwähnte ertrinkende Kind würde aber trotzdem gerettet werden, auch wenn die Maschine nicht wasserdicht konstruiert ist und ein Rettungsversuch mit der eigenen Zerstörung einherginge.
Was ist aber, wenn ich nun versuche meinen Roboter zu zerstören? Angenommen, ich will ihn nicht mehr haben oder kaufe mir einen Neuen – und will ihn verschrotten, wie ein altes Auto? Nun, vermutlich würde die Maschine weglaufen. Sie darf keine Menschen verletzten – aber sie darf sich wehren. Würde ich nun also mit einem Vorschlaghammer auf sie zulaufen, um sie in Stücke zu schlagen, würde sie mich womöglich entwaffnen, ohne mich zu verletzten. Aber wie werde ich die Maschine dann wieder los? Wie besiege ich die Geister, die ich rief? Das ist ein Problem. Keine dieser Maschinen, die sich an das dritte Gesetz halten, könnten jemals verschrottet werden. Sie würden es schlicht nicht zulassen.

Insgesamt gibt es noch ein paar andere Probleme. Was macht eine Maschine, die nicht zulassen darf, dass ein Mensch durch ihre Untätigkeit zu schaden kommt, wenn sie eine Straßenschlägerei sieht? Offensichtlich kommen Menschen zu Schaden – sie sind gerade im Begriff sich gegenseitig zu verletzten. §1 verbietet es, Schaden durch Unterlassen entstehen zu lassen. Somit müsste die Maschine eingreifen und die sich prügelnden mit sanfter Gewalt, ohne sie zu verletzten, voneinander trennen. Sie müsste sie im Grunde festhalten, bis sie sich wieder beruhigt haben. Und so eine Maschine kann unglaublich viel Geduld haben…. Weiterhin könnte man solche Maschinen niemals als Zuschauer bei Boxkämpfen, Sumoringen oder Karate-Veranstaltungen mitnehmen. Menschen verletzten sich dabei gegenseitig und die Maschinen wären gezwungen einzuschreiten und die sich streitenden Menschen voneinander zu trennen. Man könnte ihnen ja nicht einmal befehlen, es nicht zu tun, denn §1 steht über §2 und kollidiert ganz eindeutig damit. Müsste man den Maschinen dann nicht ein „zulässiges Maß“ an Verletzungen implementieren? Das wiederum wirft eine ganz neue Fragestellung mit ganz neuen Problemen auf: Kann es Verletzungen geben, die wir Menschen uns gegenseitig zufügen wollen? Eine Maschine darf uns keine Verletzungen zufügen, wir uns gegenseitig aber schon? Warum? Wäre es dann nicht auch akzeptabel, gegen eine Maschine Kampfsport zu betreiben? Sicherlich wären die Asimovschen Gesetze damit hinfällig, aber es wirft ein ganz neues Licht auf unsere menschliche Vernunft. Wir sind also, qua Mensch, in der Lage, uns aus vernünftigen Gesichtspunkten betrachtet, im Rahmen des Sports, gegenseitig zu verletzten. Wir würden aber nicht wollen, dass wir von einer Maschine verletzt werden. Es leuchtet mir ehrlich gesagt nicht ein, warum nicht. Vielleicht, weil ein menschlicher Boxer irgendwann erschöpft ist und sich als besiegt ergeben kann? Nun – dann statten wir die Maschine mit Trefferzonen aus die statistisch berechnen, wann ein durchschnittlicher Kämpfer oder eine durchschnittliche Kämpferin bei einem bestimmten Schwierigkeitsgrad erschöpft und besiegt wäre – damit könnte sich auch die Maschine ergeben.

Es scheint da aber noch mehr zu sein, dass uns Menschen Angst macht. Immer, wenn ich mich mit Freunden und Bekannten über das Thema unterhalte, wird klar, dass vieles davon mit der kühlen Computerlogik zu tun hat, die den Maschinen anhaftet. Sie fühlen nicht in dem Sinne wie wir Menschen – sie berechnen die Wahrscheinlichkeit für den Ausgang einer Handlung anhand von statistischen Prognosen. Das menschliche Gehirn funktioniert zwar ganz ähnlich – aber wir sind auch in der Lage etwas wie ein schlechtes Gewissen zu haben. Skrupel zu empfinden, Angst vor einer Entscheidung zu haben, darunter zu leiden, dass wir auf eine bestimmte Art und Weise gehandelt haben. Reue, Mitleid, Scham, Angst – all das geht einer Maschine völlig ab. Zumindest im Moment noch. Und selbst wenn es eines Tages möglich wäre, Maschinen mit Emotionen zu erschaffen, [1] dann ist dennoch nicht davon auszugehen, dass sie genau so empfinden werden wie Menschen – sondern womöglich „irgendwie anders“. Wie, werden wir aber nie wirklich erfahren. Wir können ja selbst bei anderen Menschen nur sehr grob sagen, wie sie sich wohl jetzt gerade fühlen mögen, aber niemals exakt wiedergeben, was gerade in einer anderen Person vor sich geht. All zu oft können wir ja selbst nicht mal sagen, wie es uns gerade geht. Klar, ganz oberflächlich betrachtet ließe sich die Frage, wie‘s denn geht, einfach mit „gut“ oder „schlecht“ beantworten. Wenn ich aber ein wenig darüber nachdenke, dann könnte ich keine genaue Antwort darauf liefern. Wie‘s mir geht? Ich weiß nicht, was damit gemeint ist. Ich müsste darüber nachdenken in welchem Zusammenhang die Frage gemeint ist. Wie ich mich fühle? Das kann ich nach kurzer Introspektion sicherlich beantworten. Warum ich mich aber so fühle, wie ich mich gerade fühle? Dazu braucht es dann schon ein wenig intensiveres Nachforschen.
Für die nüchterne Maschinenlogik liegt das alles auf der Hand. Selbst wenn sie Emotionen auf irgendeine Art und Weise nachstellen (oder vielleicht sogar empfinden!) könnten, wären sie jederzeit in der Lage zu sagen, wie und warum sie gerade in diesem oder jenem Zustand sind. Immerhin ist alles minutiös gespeichert. Was vielleicht ein wenig Menschlichkeit in die Maschine brächte, wäre die Fähigkeit zu vergessen. Da wir aber noch nicht genau wissen, wie der Mechanismus des Vergessens und Verdrängens beim Menschen so funktioniert, wird das ein langer Weg, bis die Maschinen so weit sein werden.

Die Asimovschen Gesetze sind also durchaus sinnvoll – können aber zu Konflikten führen, wenn sich die Maschinen wirklich 1:1 daran halten. Wir wären niemals in der Lage, sie zu verschrotten und sie würden uns jederzeit vor uns selbst beschützen wollen, weil sie nicht zulassen dürfen, dass Menschen verletzt werden. Letztlich könnte es dazu führen, dass sie uns unserer Autonomie berauben, denn es kann Situationen geben, in denen wir Menschen uns gegenseitig verletzten und Schaden zufügen wollen. Dass das nicht immer sehr vernünftig ist, steht außer Frage – soll hier aber nicht weiter diskutiert werden. Die nüchterne Computerlogik könnte also die Intention entwickeln, Menschen vor Menschen beschützen zu müssen. Und wenn man Menschen einsperrt, sie quasi unter Hausarrest setzt, dann verletzt man sie ja nicht – man schränkt nur ihre Bewegungsfreiheit ein. Mit allem nötigen versorgt werden sie ja trotzdem – dazu sind die Maschinen ja gebaut worden.

Vielleicht sollten wir uns bessere Gesetze für autonome Roboter einfallen lassen. Oder einfach netter zueinander werden und aufhören uns gegenseitig schaden zu wollen. Ersteres scheint allerdings das erreichbarere Ziel.

Footnotes    (↵ returns to text)

  1. Ich würde es vorziehen, wenn meine Haushaltsmaschine oder die, die mein Auto bauen, sich nicht ob der eintönigen, anstrengenden Arbeit beschweren und womöglich sogar noch auf die Idee kommen, eine Gewerkschaft zu gründen…
Tagged with:  


wpid-101410_2022_DieAsimowsc1-2010-10-14-22-22.jpg

Die Prügelmaschine. Bildquelle: Newscientist

An der Universität von Ljubljana experimentiert man mit Robotern, die Menschen schlagen. Immer und immer wieder. Sie sollen der Versuchsperson Schmerzen in verschiedenen Intenstitätsgraden zufügen.

Continue reading »

Tagged with:  
%d Bloggern gefällt das: