Die Schuld autonomer Maschinen

On 8. August 2011, in Philosophie, Technik, by Ingo

Wie Heise berichtet, wäre es unklar, wer die Schuld hat, wenn ein autonomes Fahrzeug, wie Google sie offenbar erforscht, einen Unfall baut. Das hätten zumindest „zahlreiche Kommentatoren“ behauptet. Nun, vielleicht lässt sich ein wenig Klarheit in die Gedanken der Kommentatoren bringen.

Wenn ein Mensch in einen Unfall verwickelt ist, dann tendieren wir dazu, die Schuld bei eben jenem zu suchen. Menschliches Versagen, Fahrlässigkeit, Fehleinschätzung der eigenen Fähigkeiten – all das kann zu einem Unfall führen.

Was ist mit der Maschine? Bisweilen glauben wir, Maschinen wären fehlerlos, könnten nicht unachtsahm sein, von Fahrlässigkeit sei keine Spur und sich falsch einschätzen kann sie auch nicht, denn sie ist mit den Daten über ihre Eigenschaften gefüttert und damit immer im Bilde. Aber: Sind Maschinen fehlerlos? Jeder, der bei einem einfachen Ausdruck die Freuden eines Papierstaus beobachten durfte, wird das verneinen können. Und je komplexer die Maschine wird, desto dramatischer könnten die Folgen des Fehlers sein. Mehr noch: Eine eine intelligente Maschine muss Fehler machen!

Wenn von autonomen, selbstlernenden und intelligenten Maschinen die Rede ist, dann meint man damit meist Computer, die mit genetischen Algorithmen arbeiten oder die auf eine ähnliche Art und Weise ihre ursprüngliche Programmierung anpassen und somit lernen können. Die Maschine entscheidet – nicht mehr ihr Programmierer. Sie ist in der Lage, ihr eigenes Programm den neuen Bedingungen anzupassen. Das heißt auch, dass das System zwingend darauf angewiesen ist, Fehler zu machen. Wie sollte die Maschine sonst lernen, was richtig und was falsch ist? Wie sollte sie die wahrscheinlichen Auswirkungen ihres Handelns abschätzen können, wenn sie niemals Fehler machte? Um zu lernen und selbstständig zu entscheiden, sind Fehler zwingend nötig.

Wer hat also die Schuld? Nun: Die Maschine! Im Beispiel um Googles Robot-Autos hätte im Autopilot-Betrieb nicht etwa der Mensch schuld, sondern der Computer, der das Fahrzeug lenkt. Bei einer lernenden Maschine kennt der Erbauer nämlich den Zustand der Maschine nicht mehr – sie hat sich ja verändert, in dem sie gelernt hat. Trifft die Maschine also eine falsche Entscheidung, ist die Maschine an den Folgen schuld. Da nun jedes Auto auf eine Weise versichert sein muss (der Halter muss ja schließlich eine Haftpflichtversicherung abschließen), ist das also im Grunde gar kein großes Problem. Ich würde meinen, dass es sich bei einer autonomen Maschine um eine geschaffene Gefahrenquelle handelt, wie man sie bereits kennt. Vielleicht auch vergleichbar mit einem Hund, für den man auch Versicherungen abschließen kann, für den Fall, dass er, warum auch immer, jemanden beißt und damit eine Schädigung herbeiführt.

Tagged with:  

Kommentar verfassen

%d Bloggern gefällt das: