Gestern Abend habe ich mir den Film „Moon“ angesehen – und ich muss sagen, dass er durchaus Aspekte hat, die nachdenklich machen können. Insbesondere ein Satz, den der Hauptdarsteller des Films zu der Stations-KI „Gerty“, kurz bevor er sich in die vermeintliche Freiheit rettet:

Gerty: „Wir werden funktionieren, wie wir programmiert wurden.“
Sam: „Wir sind nicht programmiert. Wir sind Menschen!“

Sam ist ein Mensch. Aber Sam ist auch ein Klon. Ein Klon, dessen einzige Aufgabe es ist, allein auf dem Mond zu sein, den Rohstoffabbau von vollautomatischen Maschinen zu überwachen und alle drei Jahre gegen einen weiteren Klon ausgetauscht zu werden. Während des Films wird deutlich, dass sowohl seine Vitalfunktionen nach diesen drei Jahren zusammenbrechen, als dass sich auch psychologische Zusammenbrüche einstellen – was all zu menschlich ist, wenn man bedenkt, dass drei Jahre in der Isolation, allein verbunden über zeitweise gesendete Videobotschaften von der Erde niemanden kalt lassen dürften.

Die KI Gerty dagegen scheint ebenfalls nicht all zu unmenschlich zu sein. Sie ist offenbar darauf programmiert, nicht nur Hilfeleistungen zu bieten, sondern auch den psychologischen Zustand der Klone zu überwachen. Insofern wirkt sie zwar relativ neutral, kümmert sich aber geradezu führsorglich um ihren Schützling. Mehr noch: Gerty scheint in der Lage zu sein, seine eigenen Programm-Grenzen zu überschreiten. „Ich bin darauf programmiert, dir zu helfen Sam“, kommentiert Gerty diese Verstöße gegen eigentlich fest eingebaute Sicherheitsprotokolle. Die Maschine hat in dieser Fiktion also eigene Entscheidungsmöglichkeiten – einen eigenen Willen, der sich gegen die Vorgaben wenden kann.

Sind sie Menschen? Nun, Gerty sicher nicht. Um Mensch zu sein, bedarf es mindestens der Angehörigkeit zur Spezies Homo Sapiens Sapiens. Gerty ist vielmehr menschlich – denn obwohl die KI während des gesamten Films mit einer völlig neutralen Stimme spricht und Emotionen nur mit Smileys auf einem kleinen Display angezeigt werden, wird deutlich, dass die Maschine ein Gewissen zu haben scheint. Sie lässt sich dazu überreden, beim Fluchtplan der Klon-Astronauten zu helfen. Natürlich mit der Begründung „Ich bin darauf programmiert, deine Sicherheit zu gewährleisten, Sam.“

Aber ist Sam ein Mensch? Eine Frage, die mich durchaus beschäftigt und die weitreichende Probleme mit sich bringt. Sam ist genetisch Angehöriger der Spezies Mensch. Er hat Gefühle, ein mentales Inneleben, leidet unter der Einsamkeit auf dem Mond, vermisst seine Frau und sein Kind. Dennoch ist er ein künstlich erschaffenes Wesen – eine Eigenschaft, die er mit Gerty teilt. An dieser Stelle verwischt der Film die Grenze zwischen Natürlichkeit und Künstlichkeit, zwischen Mensch und Maschine – und wirft Fragen auf.

Wir haben also einen Menschen, der nicht weiß, dass er künstlich erschaffen wurde – das er im Grunde ein industrielles Produkt ist – und eine Maschine, die sehr sicher weiß, dass sie eine Maschine ist, aber sich nicht so verhält. Wenn sich nun künstlich erschaffene Produkte intelligent verhalten und ein Gewissen haben, ist es dann noch von Bedeutung, dass sie künstlich erschaffen wurden? Ohne zu wissen, dass Sam ein Klon ist, fühlt man ohne Zweifel mit ihm. Man kann seine Sorgen, seine Ängste und seine Freuden, wenn er Nachrichten von der Erde bekommt, nachvollziehen, nachempfinden. Genauso erzeugen Gertys Handlungen und Aussagen ein gewisses Mitgefühl – geradzu Sympathie. Man hat bei der Betrachtung des Films das dringende Gefühl, dass man Sam unmenschlich behandelt (und ich muss noch einmal betonen: Er ist ein Industrieprodukt!). Genauso hat man das Gefühl, dass Gerty sich all zu menschlich verhält.

Warum aber haben wir – oder zumindest ich – diese starken Intuitionen? Womöglich kommt es gar nicht darauf an, was der Ursprung eines Wesen ist, um ihm Würde zuzuschreiben? Hier von Menschenwürde zu reden wäre verfehlt – denn das würde den sich durchaus menschlich verhaltenden Gerty nicht einschließen. Letzterer stimmt immerhin zu, dass man auch ihn seinen Erinnerungen (seinem Cache) beraubt. Und Erinnerungen gehören notwendig zum Personsein dazu. Bedarf es aber nun einer Maschinenwürde? Oder muss nicht vielmehr nur noch von „Würde“ gesprochen werden und sie jedem Wesen zugesprochen werden, dem moralische Eigenschaften zugeschrieben werden können?

Weit sind wir von dieser Fiktion aber nicht entfernt. Wir haben bereits Roboter mit simulierten Gefühlen – Maschinen die sich gut oder schlecht fühlen können und mit Lovotics sogar Maschinen, die tiefe, menschliche Emotionen simulieren können. Wenn sie sich also auf eine Weise verhalten, sodass Emotionen zugeschrieben werden können, ganz unabhängig davon, wie sie entstehen (denn bei Menschen weiß man auch nicht, ob sie sich irgendwie fühlen, sondern schreibt es auch nur zu – das brühmte „Other Minds“-Problem, bei dem man nicht weiß, ob ein anderer mentale Zustände hat, sie ihm aber zuschreibt), dann ist es nur konsequent, ihnen auch eine bestimmte Würde zuzuschreiben.

Diese Form von Würde, sollte man im Hinterkopf behalten, wenn man mit Maschinen experimentiert und an ihnen forscht, die dazu gemacht sind, Emotionen zu simulieren. Sie sind programmiert. Sie sind menschlich!

Tagged with:  

Kommentar verfassen

%d Bloggern gefällt das: