In letzter Zeit erkläre ich öfter mal, wie das mit der Verschlüsselung von E-Mails so funktioniert. Damit das Ganze jetzt noch viel einfacher und toller wird, habe ich beschlossen, ein kleines Tutorial zusammenzuschreiben, in dem alles Wichtige auf die möglichst einfachste Art und Weise erklärt wird.

Da mein überwiegender Freundes- und Bekanntenkreis weiblich ist, verwende ich hier durchgehend weibliche Anredeformen (oder bemühe mich zumindest weitestgehend darum). Für die Männer unter euch: Ihr seid natürlich mitgemeint. 🙂

Ich versuche es so zu erklären, dass auch wirklich jede versteht, was es mit der Verschlüsselung so auf sich hat und was es zu tun gilt, um von einer unverschlüsselten zu einer verschlüsselten Kommunikation zu kommen. Vielleicht wird da die eine oder andere mit ein wenig mehr Technikverständnis klagen, dass es zu einfach erklärt ist – aber ich setze einfach mal ein „Kenntnislevel 0“ voraus – also die Standard-Nutzerin, die gerade mal ein Mail-Programm benutzt (und vielleicht nicht einmal selbst eingerichtet hat) und nach dem Tippen der Mail schlicht auf „absenden“ klickt. Also dann, legen wir mal los…

E-Mails verschlüsseln? Warum überhaupt?!? Das ist doch total kompliziert!

Eins vorweg: Die erste Einrichtung könnte, unter Umständen, abhängig vom verwendeten System, ein klitzekleines bisschen kompliziert sein. Aber keine Panik! Dafür nehme ich dich, liebe Leserin, hier kurz an die Hand und begleite dich durch die einzelnen Schritte von einer unverschlüsselten zur verschlüsselten Mail. Und sieh’s mal so: Wenn du dir den (wirklich minimalen) Aufwand machst, kannst du direkt stolz auf dich sein, weil du wieder etwas kannst, was nicht jede kann (tatsächlich finde ich es immer wieder erschreckend zu erfahren, wie wenig Menschen überhaupt auch nur ahnen, dass man E-Mails verschlüsseln kann…).

Ich will mit einer kleinen Geschichte anfangen. So eine unverschlüsselte E-Mail wird immer gern mit einer Postkarte verglichen, die jede andere Person lesen kann. Das ist zwar schon ganz gut – aber immer noch die halbe Wahrheit. Es ist nicht nur so, dass die „virtuelle Postkarte“ jede lesen könnte – sie muss ja auch irgendwie von A nach B gelangen. Das passiert über ziemlich öffentliche Leitungen. Zwar rüsten in letzter Zeit immer mehr E-Mail-Anbieter auf und behaupten, sie hätten eine Transportweg-Verschlüsselung – das hängt aber davon ab, ob der empfangende Server auch das gleiche Protokoll spricht, wie der sendende. Tut er das nicht, bleibt die Leitung zwischen den Servern einfach offen und unverschlüsselt. Transportweg-Verschlüsselung? Server? Protokolle? Noch nie etwas davon gehört? Bleiben wir mal bei der Postkarten-Metapher, dann ist das ungefähr so:
Du schreibst deiner besten Freundin eine Nachricht auf eine Postkarte und willst sie verschicken. Zum Verschicken muss die Nachricht irgendwie bewegt werden. Nun – für das Bewegen von Nachrichten gibt es Postbotinnen (Server). So einer Botin drückst du die Postkarte in die Hand, die läuft los und gibt steckt sie in den Briefkasten der Empfängerin. Soweit, so gut. Und was hat das mit der Transportweg-Verschlüsselung auf sich? Nun, einfach gesagt: Wenn der Transportweg zwischen der Postbotin und dem Briefkasten der Empfängerin verschlüsselt ist, dann nimmt die Postbotin deine Postkarte, liest sie (er muss ja wissen, wohin die Nachricht soll – und dabei liest er natürlich ZUFÄLLIG auch den Text auf der Karte, den er im besten Fall ganz schnell vergisst, weil der Text nicht wichtig für die Zustellung ist…) und steckt sie dann in ihre Tasche. Mit der Postkarte in der Tasche kann die Nachricht auf dem Weg zum Briefkasten mehr gelesen werden. Wir haben es aber mit einer besonderen Postbotin zu tun. Unsere Postbotin ruft nämlich erst einmal bei der Empfängerin der Karte an und fragt, wie denn die Haustür vor dem Briefkasten so aussieht und ob sie mit ihrer Tasche durch die Tür passt (mit anderen Worten: Der versendende Server fragt, ob der empfangende Server ein entsprechendes Transportwegsverschlüsselungsprotokoll überhaupt unterstützt). Wenn die Empfängerin dann erklärt, dass die Tasche durch die Tür passt, ist die Sache geritzt. Und was wenn nicht? Tja, dann kann unsere arme Postbotin die Karte leider nicht in die Tasche stecken. Statt dessen nimmt sie die Karte mit auf den Weg zum Briefkasten und liest sie an jeder Ecke laut vor (die Verbindung wird zurückgesetzt und die Nachricht unverschlüsselt übermittelt). Der Gedanke an eine Postbotin, die deine Briefe an deine beste Freundin nimmt, sie überall laut vorliest und vielleicht noch die mitgeschickten Fotos rumzeigt, während sie nach dem Weg zum Briefkasten fragt, ist irgendwie unangenehm? Na, dann wird’s Zeit, dass wir uns spätestens jetzt mit der Verschlüsselung beschäftigen.

Wie der Name schon sagt (du habt es vermutlich schon erraten), braucht es Schlüssel, um eine Nachricht zu verschlüsseln. Einer der aktuellen Standards, auf den ich mich festgelegt habe, ist die GPG-Verschlüsselung als OpenSource-Variante der PGP-Verschlüsselung (S/MIME werde ich hier also nicht extra erklären, aber mal einen Wikipedia-Artikel dazu verlinken, falls euch interessiert, wie das so funktioniert).
Das Erste, was du und deine beste Freundin jetzt machen müsst, ist Schlüsselpaare erzeugen. Es ist wichtig, dass beide Seiten Schlüssel erzeugen und sie untereinander austauschen (das ist der Moment, in dem es manch einer zu kompliziert wird – aber bitte: Durchhalten! Es ist wirklich nicht schwer! 🙂 ). Es werden grundsätzlich zwei Schlüssel erzeugt: Ein öffentlicher und ein privater Schlüssel. Der öffentliche Schlüssel ist genau das: öffentlich. Den dürfen alle haben, die dir in Zukunft E-Mails verschlüsselt schicken möchte. Der private Schlüssel ist ebenfalls, wie’s der Name schon sagt, privat. Den musst du auf jeden Fall irgendwo sicher verwahren. Sicher verwahren heißt: Niemals, auch nicht unter Androhung höchster Übel, Tod, Teufel, Raub, Mord oder Brandschatzung irgendjemandem geben. Nicht mal der eigenen Mama.

Und was hat es mit diesen beiden Schlüsseln auf sich? Nun, auch das lässt sich wieder recht einfach anhand von Bildern beschreiben: Stell dir vor, du steckst deinen Brief von jetzt an in ein kleines, gepanzertes Kästchen. Vor diesem Kästchen hängt ein Schloss mit zwei Schlüssellöchern. Das erste Schlüsselloch ist für den öffentlichen Schlüssel deiner besten Freundin gedacht (darum müsst ihr die Schlüssel nämlich austauschen: Das Kästchen wird mit dem öffentlichen Schlüssel deiner Freundin sicher verschlossen). Das zweite Schlüsselloch ist für den privaten Schlüssel der Empfängerin gemacht. Deine beste Freundin muss das Kästchen nämlich mit ihrem privaten Schlüssel wieder aufschließen (denn wenn das mit dem öffentlichen funktionieren würde, könnten ja wieder alle, die den Schlüssel haben, das Kästchen öffnen und die Nachricht lesen – und eben das wollen wir ja verhindern). Andersrum funktioniert das auch ganz genauso: Wenn du ein solches Kästchen bekommst, dann wird es von der Absenderin mit deinem öffentlichen Schlüssel zugeschlossen und nur du kannst es dann mit deinem privaten Schlüssel wieder öffnen. Und eben darum ist es so wichtig, den privaten Schlüssel nicht zu verlieren und ihn schon gar nicht irgendeiner anderen Person anzuvertrauen. 🙂

Tolle Geschichte! Und wie mache ich das jetzt?!?

Da ich überwiegend Windows-Nutzerinnen kenne, erkläre ich euch hier jetzt erst mal die technischen Notwendigkeiten für Windows. Im Anschluss gibt’s noch ein paar Worte zum Mac (da geht’s viel einfacher – ist halt ein Mac.. :D) – und Linux-Nutzerinnen.. ja, die gibt’s. Aber ich kenne keine, die da nicht schon so versiert wäre, als dass sie sich nicht schon beim Lesen der kleinen Einstiegsgeschichte gelangweilt (oder vor Lachen den Bauch gehalten) hätte.

Prinzipiell braucht ihr drei Dinge:

Mozilla Thunderbird als Mail-Programm
GPG4Win als Verschlüsselung-Suite
– Das Enigmail-AddOn für Thunderbird

Ich setze jetzt als gegeben voraus, dass ihr Thunderbird schon benutzt und zumindest grundsätzlich in der Lage seid, es zu bedienen. Das schließt ein, dass ihr da auch schon eure E-Mail-Konten eingerichtet habt.

Ihr geht in folgender Reihenfolge vor: GPG4Win installieren, Enigmail-AddOn installieren, Schlüssel erzeugen, öffentlichen Schlüssel exportieren und austauschen. Aber eins nach dem anderen.

Wenn ihr die GPG-Suite installiert, könnt ihr auf den mitgelieferten Mail-Client (Claws Mail) gut und gern verzichten. Alle anderen Programmteile sind durchaus ganz nützlich – insbesondere Kleopatra und GPA. Ersteres braucht ihr z. B., wenn ihr Dateien verschlüsseln wollt, Letzteres wird gleich nochmal wichtig. Hier bitte also bei der Installation darauf achten, dass diese beiden Programmbestandteile mit installiert werden.

Wenn ihr so weit seid, öffnet ihr Thunderbird, öffnet das Menü, klickt auf AddOns und sucht in der Eigabemaske nach Enigmail. Das müsst ihr dann installieren und Thunderbird einmal neu starten. Wenn alles glatt gelaufen ist, hat Enigmail auch schon den Pfad zu GPG von selbst gefunden und ihr müsst euch nicht mehr weiter darum kümmern. Sicherheitshalber könnt ihr das auch einfach überprüfen, in dem ihr wieder in das Menü klickt, dann auf Enigmail und auf Einstellungen.

Falls da steht „GnuPG wurde gefunden in C:\Program Files (x86)\GNU\GnuPG\pub\gpg.exe“ (wobei das Laufwerk vorn davon abhängt, wo genau ihr es denn installiert habt, das solltet ihr euch bei der Installation merken – außer, ihr habt nur das eine Laufwerk C:\), dann seid ihr schon auf der sicheren Seite und müsst nichts weiter machen. Falls da steht, dass es nicht gefunden wurde, gilt es, das Häkchen „Anderer Pfad“ zu setzen und den oben angegebenen Pfad eintragen. Um das Ganze noch ein wenig komfortabler zu gestalten, verfügt das AddOn über einen Assistenten, der euch bei den wichtigsten Einstellungen unter die Arme greifen kann. Der ist, wie ich finde, fast selbsterklärend. 🙂

Hurra, fast fertig! Jetzt müsst ihr nur noch Schlüssel erzeugen und austauschen! Dazu öffnet ihr GPA und bekommt entweder sofort eine Aufforderung, einen Schlüssel zu erzeugen oder landet in der Übersicht. Beide Abläufe der Schlüsselerzeugung sind im Großen und Ganzen identisch. Im ersten Fall folgt ihr einfach der Aufforderung, ein neues Schlüsselpaar zu erzeugen. Im zweiten Fall klickt ihr auf den Menüpunkt „Schlüssel“ und dann auf „Neuer Schlüssel…“ (STRG-N).
Als Verschlüsselungsalgorithmus benutzt ihr RSA und die Schlüssellänge in Bit sollte so lang wie nur irgendmöglich sein. In der Windows-Version heißt das 3072 Bit. Hier gilt: „Viel hilft viel“, also je länger, desto besser. Die User-ID besteht aus eurem Namen und der E-Mail-Adresse, mit der ihr in Zukunft verschlüsselte E-Mails verschicken wollt (keine Sorge – ihr könnt später noch beliebig viele Adressen zum Schlüsselpaar hinzufügen oder auch wieder entfernen). Als Nächstes müsst ihr dann eine Passphrase angeben, bestätigen und schon seid ihr fertig. Eine Passphrase ist übrigens eher ein Satz als ein Wort (darum heißt es Passphrase und nicht Passwort ;)). Wie ihr zu einer halbwegs sicheren Passphrase kommt, ist hier auf ganz lustige Weise erklärt: http://xkcd.com/936/

Damit habt ihr jetzt euer erstes Schlüsselpaar erzeugt! Herzlichen Glückwunsch! Jetzt markiert ihr in GPA euren Schlüssel und klickt auf „Exportieren“. Als Nächstes öffnet sich ein Fenster, das in der Titelzeile verlautbart, den öffentlichen Schlüssel in eine Datei speichern zu wollen. Wir erinnern uns: Damit die Mail von einer anderen Person verschlüsselt werden kann, muss die den öffentlichen Schlüssel haben. Ihr speichert den Schlüssel also in einer Datei (meist .asc oder .txt) und schickt ihn derjenigen, die euch in Zukunft Mails verschlüsseln soll (z. B. eurer besten Freundin). Wie ihr die Datei verschickt ist völlig egal (hier bedarf es jetzt also keiner großen Sicherheitsvorkehrungen) – der Schlüssel heißt öffentlich, weil er genau das ist. Jede kann ihn haben, um die Mails an euch zu verschlüsseln.
Damit ihr dann eurer Empfängerin auch eine verschlüsselte E-Mail schicken könnt, braucht ihr natürlich auch wieder deren öffentlichen Schlüssel (wie sie den erzeugt und exportiert kann sie ja auch oben nachlesen 😉 ). Wenn ihr den geschickt bekommen habt, könnt ihr den ganz einfach in GPA importieren. Ebenfalls könnt ihr dort mit einem Rechtsklick auf den importierten Schlüssel das „Schlüsselvertrauen“ einstellen (hier ist es dann doch an der Zeit, sich kurz Gedanken über die Art und Weise der Schlüsselübermittlung Gedanken zu machen – und ob ihr diejenige, die euch den Schlüssel geschickt hat, wirklich gut kennt. Aber das würde jetzt vielleicht doch ein kleines Bisschen zu weit führen…^^). Ansonsten würdet ihr in Thunderbird regelmäßig von einer großen, roten und ziemlich hässlichen Meldung über eine „unvertraute Unterschrift“ belästigt werden, sofern ihr verschlüsselte und signierte E-Mails bekommt.

Auf dem Mac funktioniert das ganz ähnlich – nur noch viel einfacher. Hier braucht ihr die GPG Suite, die alles wesentlich (Schlüsselverwaltung und Plug-ins) schon von selbst mitbringt und installiert. Die Schlüsselverwaltung findet ihr in den Programmen oder unter den Einstellungen. In Apple Mail integriert sie sich von selbst, ohne dass ihr erst ein AddOn runterladen müsst. Enigmail in Thunderbird findet die GPG Suite, soweit ich mich erinnern kann, ebenfalls automatisch, ohne dass hier große Probleme zu erwarten sind. Und noch ein kleiner Bonus: In der Mac-Suite lassen sich Schlüssel mit einer Länge von bis zu 4096 Bit generieren. 😉

Und das war‘s jetzt eigentlich auch schon. Von jetzt an könnt ihr mit allen, mit denen ihr die öffentlichen Schlüssel ausgetauscht habt, verschlüsselte E-Mails schreiben. Falls ihr wider Erwarten doch noch auf Probleme stoßt: Hinterlasst einen Kommentar oder meldet euch auf eine beliebige andere Art zu Wort. Ich will versuchen, die Schwierigkeiten dann Schritt für Schritt aus dem Weg zu räumen. Das ist es mir wert, denn je mehr Leute lernen, wie man Kommunikation verschlüsselt, desto besser ist’s. 🙂

Tagged with:  

In seiner Eröffnungsrede zum 30C3 sagte Tim Pritlove, dass das Internet neu erfunden werden müsste. Die Hacker hätten das Netz so geschaffen, wie es jetzt ist, aber ihre grundlegenden Prinzipien, Vertrauen und Freundschaft, hätten nicht ausgereicht. Nun, hier liegt ein Denkfehler vor, der genauer zu beleuchten gilt. Schließlich will ich versuchen, ein Teil der Lösung zu sein.

Meiner Ansicht nach liegen gleich zwei Irrtümer vor. Der erste: Vertrauen und Freundschaft würden nicht ausreichen, um ein menschenfreundliches Netz zu schaffen. Und der zweite: Es gibt eine technische Lösung für das Problem.

Beide Irrtümer hängen allerdings eng miteinander zusammen. Das fehlende Vertrauen ineinander macht Überwachung überhaupt erst möglich. Selbst wenn im Hintergrund gänzlich andere Interessen stehen (wie z. B. das Streben nach Macht und wirtschaftlichen Vorteilen), so ist es doch die Angst, mit der große Teile der heute vorhandenen Überwachungsmaßnahmen legitimiert wurden. Die Angst war schon immer eine gute (Be-)Herrscherin aber eine schlechte Ratgeberin. Nachdem uns ein Jahrzehnt lang Furcht vor dramatischen Terroranschlägen gemacht und Stück für Stück immer mehr Privatsphäre reduziert wurde, lassen wir uns von unserer Angst beherrschen. An dieser Stelle sei erklärt: Furcht und Angst sind zwei Seiten der gleichen Medaille. Furcht richtet sich gezielt auf etwa – nämlich den Terroranschlägen, mit denen die Einschränkungen der Privatsphäre gerechtfertigt werden. Angst ist dagegen diffus und nicht so einfach greifbar. Sie schwelt im Hintergrund, richtet sich nicht auf ein bestimmtes Etwas, sondern bleibt ungreifbar und damit nicht rational zu besiegen.

Diese Angst führt dazu, dass unser Vertrauen unterminiert wird. Ob bewusst oder unbewusst: Die ständige mediale Aufmerksamkeit für Dinge, die nur unserer Sicherheit dienen sollen und die uns vor grausamen Anschlägen schützen wollen, vergiftet unser Vertrauen ineinander massiv.

Und genau hier ist der Kern des Problems: Menschen, die einander vertrauen, müssen sich nicht kontrollieren.

Das führt dann auch direkt zu Problem Nummer zwei: Freundschaft basiert auf Vertrauen. Wird das aber durch gezielte Furcht angegriffen, kann das auch die stärkste Freundschaft erschüttern.

Richtige Fragen stellen

Das Netz muss nicht neu erfunden werden. Es funktioniert prächtig. „Wie lässt sich das technisch lösen?“ ist damit einfach die falsche Frage. Es braucht keine technische Lösung, denn die Technik ist nicht das Problem. Es braucht eine gesellschafliche, eine politische Lösung. An dieser Stelle, so denke ich, müssen wir einfach alle zusammenarbeiten und gemeinsam über das Problem nachdenken. Nicht darüber, wie man Überwachung technisch verhindern kann, sondern darüber, wie man sie gesellschaftlich überflüssig macht.

Die bessere Frage ist also: Wie lernen wir, einander wieder zu vertrauen? Denn nur ohne Angst und dafür mit gegenseitigem Vertrauen können wir den Überwachenden die gesellschaftliche Toleranz entziehen.

Worauf ich hinaus will, ist, dass es für das Geheimdienstproblem keine technische Lösung gibt. Es muss eine gesellschaftliche und politische Lösung gefunden werden. Überwachung als solche bedarf einer weitgehenden moralischen Ächtung. Und dazu braucht es eine großflächige Zusammenarbeit zwischen Hackern und Philosophen. Wir haben schließlich viel mehr gemeinsam, als beiden Seiten bewusst ist. Schließlich verstehen wir uns auf formale Sprachen und angewandte Logik. Und wir nehmen Dinge (Argumente, Software, Technik), spielen ein wenig damit herum und setzen sie in einen neuen Kontext.

Wir müssen also nicht die Technik neu erfinden, sondern die Gesellschaft revolutionieren. Wenn das Netz auf den Prinzipien von Vertrauen und Freundschaft aufgebaut wurde, dann ist es spätestens jetzt an der Zeit, auch eine Gesellschaft auf Vertrauen und Freundschaft aufzubauen. Eine Gesellschaft, in der auf Misstrauen, Hass und Gewalt verzichtet werden kann. Klingt utopisch? Nicht utopischer als vor dreißig Jahren etwas wie ein iPad geklungen hätte.

Tagged with:  

Unkontrollierbare Technologie?

On 18. August 2013, in Philosophie, Technik, by Ingo

Eben habe ich noch mal einen Film gesehen, der eigentlich einer der maßgeblichen Auslöser dafür war, dass ich anfing, mich mit Computern zu beschäftigen: Wargames aus dem Jahr 1983. Damals wie heute zieht mich dieser Film in seinen Bann. Zum einen, weil er die unkontrollierbare Zerstörungskraft von Atomwaffen demonstriert. Zum anderen, weil er die Fantasie mit selbstlernenden Computern beflügelt.
Nun, was 1983 noch pure Science Fiction war, ist heute Realität: Wir haben selbstlernende Computer. Expertensysteme, die auf neuronalen Netzen basieren und, wenn es ganz pervers wird, mit genetischen Algorithmen betrieben werden.

Wie ich hier nun so in der Dunkelheit sitze und mir den Film noch einmal durch den Kopf gehen lasse, kommt mir ein verwegener Gedanke: Könnte es sein, dass wir mit Computern, speziell mit ihrer Vernetzung, eine unkontrollierbare Technologie geschaffen haben?
Bei Kernwaffen oder Kernenergie liegt die Sache auf der Hand: Sobald sie eingesetzt wird, ist jedes Risiko uneinschätzbar. In Bezug auf die Kernenergie haben wir das an zahlreichen Reaktorkatastrophen in den letzten 30 Jahren sehen können. Ich zumindest kann mich noch an Tagesschau-Sendungen nach der Tschernobyl-Katastrophe erinnern und das Unglück von Fukushima steckt uns auch noch in den Knochen. Kommt es in einem Reaktor zu einem Unglück, entsteht eine unkontrollierbare Situation.
Was nukleare Waffen angeht, halte ich den letzten Satz von „Joshua“ im Film Wargames für genauso markant wie wahr: „Ein seltsames Spiel. Die einzige Möglichkeit zu gewinnen, ist, nicht zu spielen.“ Jeder nukleare Krieg, wäre ein Krieg ohne Sieger. Ein wenig deutlicher wird das mit den 3D-Nukemaps, die Golem kürzlich in einem Artikel erwähnte.

Und was haben jetzt Computer, Kerntechnologie und das Internet miteinander zu tun? Nun… meine Gedanken sind (wie üblich) quer. Wir haben mit Computern und dem Internet eine Technologie geschaffen, die wir nicht mehr kontrollieren können. Eine Bekannte schrieb eben, dass in den Nachrichten wohl vom Verkauf von Patientendaten durch Apotheker berichtet wurde. Immerhin 42 Millionen Stück. Das wäre mehr als die Hälfte aller Bundesbürger. Aber das ist ja nur ein kleiner Tropfen auf den momentan glühend heißen Stein, wenn es um Daten geht. Die Geheimdienste saugen nach wie vor massenhaft Daten ab und sogar die Erfinder von Verschlüsselungsmethoden sagen, dass es im Grunde sinnlos ist, zu verschlüsseln.
Was haben wir aber sonst noch für Probleme mit Daten? Es kommt immer wieder zu Pannen. Finanzämter, die alte Computer verkaufen und deren Festplatten Finanzdaten enthalten (ungesichert versteht sich), kamen genauso vor, wie Einbrüche in Foren, Kundendatenbanken und ähnliches, bei denen Personendaten dann einfach „verloren“ waren. Das klingt so schön – aber wenn ein Unternehmen Daten „verliert“, dann sind sie ja nicht einfach weg. Irgendjemand hat sie. Jemand, der sie nicht haben sollte. Eine Analogie wäre vermutlich gut: Angenommen, ich schreibe meine Kontakte und meine Termine in einen Buchkalender (früher habe ich das tatsächlich mal gemacht). Wenn ich diesen Kalender jetzt in der Bahn oder dem Bus oder während ich eilig zur nächsten Haltestelle renne aus der Tasche verliere, dann ist er für mich weg. Aber jemand kann ihn finden.

So ist das im Grunde auch mit Daten. Daten sind nicht „aus der Welt“ nur, weil man sie weggibt oder verliert. Im Gegenteil: Sie sind auch deutlich einfacher zu duplizieren, als analoge Medien. Ein analoger Papierkalender müsste ja umständlich fotokopiert oder abgeschrieben werden. Daten lassen sich einfach kopieren.

Können wir Daten überhaupt kontrollieren? Die klare Antwort darauf ist: Nein. Können wir nicht. Daten existieren als elektromagnetische Informationseinheiten. Und als solche können sie über unzählige Arten und Weisen mitgelesen, vervielfältigt und bewegt werden. Wer sagt, dass nicht jemand mit einer großen Antenne draußen steht und jetzt in diesem Moment die Abstrahlung meiner Tastatureingaben abfängt? Oder die Abstrahlung meines Monitors? Vielleicht sogar die aller Rechenoperationen des Prozessors in meinem Computer? Natürlich ist es extrem unwahrscheinlich, dass jemand so etwas tut – aber es ist möglich.
Genauso ist’s mit allem anderen. Wenn ich an der Kasse bezahle, dann gebe ich nur eine PIN ein – und die Datenleitungen regeln alles andere. Ich habe keine Kontrolle darüber, ob und wie viel Geld nun von meinem Konto abgebucht wird – bis auf eine flimmernde Digitalanzeige vor mir. Und die muss nicht unbedingt der Wahrheit entsprechen. Wem schon mal dank eines „Computerfehlers“ Geld abgebucht wurde, das gar nicht existierte, sodass das Konto ins Minus rutsche, wird verstehen können, was ich meine. Und wer schon mal keinen Kredit bekommen hat, weil das Scoring ergab, dass man leider die falschen Nachbarn, die falsche Lebensgefährtin und das falsche Geschlecht hat, wird sich auch fragen, wer hier noch die Kontrolle über die Daten hat. Dass Arbeitgeber Google benutzen können, ist ein alter Hut und Facebook-Partyfotos sind Schnee von gestern. Die Jugendlichen von heute teilen schon längst nicht mehr alles öffentlich – immerhin lernen wir alle dazu. Aber soziale Netze, über die ständig gelästert wird, sind nur ein klitzekleines Problem.

Wir haben schlicht und ergreifend überhaupt keine echte Kontrolle über Daten. Weder über unsere, noch über die von anderen, sie sie uns anvertrauen. Klar, wir können alles erdenkliche unternehmen um sie irgendwie sicher zu verwahren, sie zu verschlüsseln und uns 4852932145-stellige Passwörter generieren lassen. Und? Computer können ziemlich gut mit Zahlen umgehen. Codes zu knacken ist da nur eine Frage der Zeit und der Rechenleistung. Und selbst wenn ich nicht von Angriffen ausgehe, sondern von den ganz alltäglichen Pannen oder völlig normalen Vorgängen, die nicht mal eine Panne sind: Überweisungen, Verkehrskontrolldaten (Ampelsteuerungen, Weichenstellungen, etc.), Behördenkommunikation, Krankenakten, Adressen und und und… all das liegt mittlerweile nur noch in Form von Daten vor. Wir fassen all das in Daten zusammen, damit Computer uns dabei helfen, unser komplizierter werdendes Leben überhaupt noch zu überschauen. Und all diese Daten können wir nicht wirklich kontrollieren. Der Geheimdienstskandal ist ein perfektes Beispiel dafür.
Aber haben wir mit dem Verlust der Kontrolle über unsere Daten, die unser Leben darstellen, auch die Kontrolle über unser Leben verloren? Noch hat das niemand bemerkt. Noch will das auch niemand wahrhaben. Noch verstehen die wenigstens, dass auch dann, wenn sie selbst nichts mit dem Internet zu tun haben (und womöglich nicht mal einen Computer besitzen), dass es Behörden, Banken, Schulen, Universitäten, Supermärkte und alle anderen Orte, die sie besuchen könnten, sehr wohl Daten über sie haben und diese sehr wohl über das Internet austauschen.

Mit der Ausdrückbarkeit in maschinenlesbare Daten haben wir eine Technologie erfunden, die im Zweifel unkontrollierbar wird. Das ist eines der Probleme, die wir in Zukunft lösen müssen.

Tagged with:  

Das Problem mit #Prism und #Tempora ist nicht ausschließlich, dass die Anbieter den Geheimdiensten Zugriff auf die Daten geben. Twitter beispielsweise lebt davon, dass Informationen öffentlich geteilt und verbreitet werden. Irgendwer posaunt etwas in die Welt hinaus – und wenn’s anderen gefällt, dann retweeten sie’s. Auf Facebook ist das ähnlich: Will ich möglichst viel Aufmerksamkeit generieren bzw. erreichen, dass meine Beiträge von möglichst vielen Menschen gefunden werden, dann mache ich sie öffentlich und nicht nur für Freunde sichtbar.

Das ist nun aber ein Problem mit der Art und Weise, wie sich Informationen verbreiten. Das ist wie Zettelchen weitergeben in der Schule. Wenn ich eine Party veranstalte und die Einladungen dazu unter der Bank weiterreiche, dann erreiche ich damit eine kleine Gruppe – denn vielleicht wird das Zettelchen an einer Stelle nicht weitergereicht. Wenn ich aber an die Tafel schreibe „Party um 20 Uhr bei mir!“ wissen’s alle und können erscheinen.

Einfach von Twitter und Facebook verschwinden, wie’s der Fefe sich wünscht, würde also nur insofern was bringe, als dass die öffentliche Datenverbreitung auf ein anderes Medium wechselt. Ob es jetzt Twitter, Facebook, App.net, Identi.ca oder wie sie alle heißen sein mag – solange die Tweets/Beiträge öffentlich geteilt werden, kann sie auch ein Geheimdienst aka Staat mitlesen.
Es liegt in unserer aktuellen Kommunikationskultur begründet, dass wir gern Dinge miteinander teilen. Einfach weil wir’s können. Das ist es, wovon das Internet lebt: Inhalte werden verlinkt, vernetzt, verteilt, verbreitet… nicht nur ich kann mich an meinen Blümchenfotos erfreuen, sondern ich kann sie der ganzen Welt zeigen und vielleicht erfreuen sich Menschen in England, Spanien, Mexico oder Japan auch daran? Das ist eine neue Form der Öffentlichkeit. Öffentlichkeit wird durch ein gemeinsames Diskurs-Thema hergestellt. Das geht über die Massenmedien, wenn sich alle Menschen über DSDS auslassen und es somit als gemeinsame Kommunikationsbasis herhalten muss. Oder es geht über Twitter-Tags wie #Prism, #Tempora, #Aufschrei oder dergleichen. Ich hör schon die Kollegen Soziologen wettern, dass das dann aber nicht anschlussfähig wäre und ja nicht alle von der Kommunikation inkludiert werden könnten… aber das ist beim Fernsehen und der Zeitung ja auch so. Ich hab keinen Fernseher, kein Radio und ich lese keine Zeitung. Ich beziehe alle Informationen aus meiner Online-Filterbubble. Wenn mir meine Offline-Freunde von den neusten musikalischen Ergüssen berichten, irgendwelchen Bands die gerade total in sind oder dergleichen berichten, kann ich nur mit den Schultern zucken und sagen „Nie von gehört. Wer soll das sein?“ – was mir dann ungläubige Blicke einbringt.

Ein verschlüsseltes Netzwerk würde übrigens auch nicht viel bringen, denn dann würde innerhalb dieser sicheren Umgebung alles öffentlich geteilt – und da braucht es nur einen Staatsdiener der sich registriert und schon wäre das Überwachungsproblem wieder in der Welt. Das Reduzieren auf Nicknames ist nur solange Erfolgreich, wie sich die Leute niemals offline treffen. Und letztlich schafft sich jeder eine „eindeutige, virtuelle Identität mit Wiedererkennungswert“. Und einfach nichts mehr öffentlich teilen? Auch blöd, dann könnten wir das Internet gleich wieder einmotten. Menschen wollen sich schließlich vernetzen, zusammenrotten und Dinge miteinander teilen. Und sie wollen für ihre geteilten Dinge gelobt, anerkannt und gemocht werden (nicht umsonst gibt’s „Like-Buttons“ aber keine „Bullshit-Buttons“ – obwohl letztere mir in vielen Fällen angebrachter erscheinen).

Was es also bräuchte, wäre ein Netzwerk wie Facebook aber mit der Möglichkeit einer integrierten, PGP-verschlüsselten, Kommunikation unter den Teilnehmern. Sprich: Teilt alles öffentlich miteinander, was ihr auch mit euren Nachbarn oder Chefs teilen würdet. Und wenn ihr etwas nur mit bestimmten Leuten teilen wollt, dann geht das auch – indem ihr die Schlüssel (die schon bei Registrierung automatisch erzeugt oder vorhandene Schlüssel importiert werden sollten) ausgetauscht werden und die Kommunikation in Echtzeit ver- und entschlüsselt wird. An der Rechenleistung dafür soll’s nicht scheitern, die ist in Massen vorhanden – und das könnte auch auf den Clients passieren.

Das eigentliche Riesenproblem ist: Es braucht einen vertrauenswürdigen, konsistenten Admin des ganzen, der sich nicht bestechen, bedrohen oder irgendwie beeinflussen lässt, damit am Ende doch eine Backdoor geschaffen wird.

Tagged with:  

Hach, demnächst geht’s mal wieder in meine zweitliebste Lieblingsstadt: Berlin! 🙂

Warum? Nun, ich wurde von einem recht genialen Künstler zu einer Vernissage am 22. Mai 2013 im Computerspielemuseum in Berlin eingeladen.

Vom 22. Mai bis zum 8. Juli sind seine Bilder da zu sehen – und das Computerspielemuseum selbst ist auch nicht zu verachten.

Für alle, die schon mal einen kleinen Vorgeschmack haben wollen, hier das offizielle Plakat, mit freundlicher Genehmigung von Matthias Zimmermann:

COMPUTERSPIELEMUSEUM

Tagged with:  

„Das System entscheidet viel schneller als es ein Mensch könnte.“ Sätze wie diesen höre ich immer mal wieder, wenn die Rede von automatischen und autonomen Systemen die Rede ist. Sei es nun das Kollisionsvermeidungssystem im Auto, die Bonitätsprüfung der Bank oder auch nur die Zusammenstellung der Suchtreffer bei Google: Wir haben in unserem Sprachgebrauch die Redewendung von der entscheidenden Maschine aufgenommen.
Ich will diesen Sprachgebrauch untersuchen und vor allem widersprechen. Von den vielen Dingen, die ein Computer für uns leisten kann, ist die Fähigkeit Entscheidungen treffen vermutlich diejenige, die er aktuell noch am schlechtesten beherrscht.

Wie kommen wir dazu, zu glauben, Computer entschieden etwas? Nun, weil das, was Computer so machen, so wirkt, als wäre es eine Entscheidung und einer solchen womöglich auch recht nahe kommt. Um das zu klären, muss ich ganz basal bei der Entscheidung selbst anfangen. Wenn wir Menschen etwas entscheiden, dann denken wir über etwas nach. Wir haben etwas, worüber es eine Entscheidung zu treffen gilt und wir haben Dinge, die mit dem zu Entscheidenden in direktem oder indirektem Zusammenhang stehen sowie die Konsequenzen aus unserer Entscheidung.

Ich muss mich entscheiden, ob ich morgen mit dem Auto oder mit der Bahn zur Uni fahre. Die Bahn wäre die kostengünstigere und vermutlich stressfreiere Wahl. Andererseits habe ich noch ein Treffen für ein Seminar abends in Bielefeld, das recht lang dauern könnte, und will später am Abend noch mit Freunden etwas unternehmen. Da ich nun nicht genau weiß, wie lang das Treffen dauern wird, dafür aber sehr genau weiß, in welcher Taktung die Bahn fährt, ist es für mich sicherer (wenn auch ungleich teurer) das Auto zu nehmen. Die Konsequenz der Überziehung wäre, dass einer meiner Freunde, der sich nun schon seit über einem Monat auf diesen Abend freut, ziemlich enttäuscht sein würde, wenn es ins Wasser fällt.

Klingt nach einer recht übersichtlichen Sache. Ist es aber ganz und gar nicht. Für alle Bestandteile meiner Entscheidung habe ich das Wissen darüber, was die jeweiligen Dinge bedeuten. Ich verstehe was mit „Bahn“, „Treffen“, „Bielefeld“ etc. gemeint ist. Allein „Bahn“ enthält schon wieder unzählige Begriffe mehr, von denen ich intuitiv verstehen kann, was sie meinen. In diesem Fall meint es nämlich nicht „eine Bahn“ – also eine festgelegte Strecke, sondern vielmehr den Zug selbst. Das zumindest ist die gängige Assoziation, die wir in der Alltagskommunikation haben, wenn wir sagen „Ich fahre mit der Bahn.“[1] Und damit weiß ich auch, was es bedeutet, mit der Bahn zu fahren. Nämlich: Mich zum Bahnhof begeben, warten, Gedrängel vor dem Wagon, einsteigen, die Zeit während der Fahrt vertreiben, Verspätungen in Kauf nehmen, damit rechnen dass etwas außerplanmäßiges während der Fahrt passieren könnte und so weiter. Mit anderen Worten: Ich treffe meine Entscheidung auf Basis von Informationspartikeln, deren inneren und äußeren Zusammenhang ich verstehen kann.
Wie nun aber Searl mit seinem berühmten Chinese-Room-Gedankenexperiment gezeigt hat, geht einem Computer das Verständnis über die Dinge ab. Er kann Symbole verarbeiten und rein logisch anhand eines Anweisungssets (das er, so behauptet Searl, verstehen kann) miteinander verknüpfen und ein Ergebnis liefern. Wirklich verstehen kann der Computer weder die eingehenden noch die ausgehenden Informationen – geschweige denn, die Gründe dafür, warum er die Verknüpfungen auf eine bestimmte Art und Weise vornimmt. Alles was er macht, ist die Anweisungen dafür abarbeiten, wie die Symbole zusammengehören.[2]

Was nun die Entscheidung angeht, so ist es notwendige Bedingung, dass der Entscheidende zumindest minimales Verständnis davon hat, worüber er entscheidet und welche Konsequenzen es hat. Einem Computer fehlt diese notwendige Bedingung. Er kann somit keine Entscheidungen treffen. Alle anderen Handlungen wären wohl im Bereich des reagierens oder des Affektes einzuordnen. Selbst wenn ich etwas sehr spontan und ohne viel Nachdenken entscheide, dann bleibt es immer noch beim Verständnis dessen, was ich tue. Selbst dann, wenn ich von falschen Tatsachen ausgehe oder über die Inhalte meiner Entscheidung getäuscht werde, bzw. mir nicht klar sein kann, welche Konsequenzen eintreten, so liegt dennoch ein Verständnisversuch vor, der nur einfach fehlschlägt oder zu falschen Ergebnisssen in Bezug auf die Konsequenzen führt.

Was aber macht ein Computer stattdessen? Nun, ich denke, es wäre korrekt, von einer Reaktion zu sprechen. Er kann auf verschiedene Dinge, die von außen auf ihn zu laufen, reagieren. Ähnlich wie ein Reflex, bei dem ein Reiz direkt und unreflektiert zu Reaktion führt, führen Eingaben direkt und unreflektiert zu Ausgaben. Mir ist natürlich klar, dass die Situation ungleich komplexer ist und dass moderne Computerprogramme allerlei Logik enthalten. Am Ende sind es aber nur Operationen, die aus Eingaben, Ausgaben und einem dazwischen stattfindenden, automatisierten Ablauf mit hoher Komplexität beruhen.

Links: The Chineese Room

Footnotes    (↵ returns to text)

  1. Wäre die andere Bedeutungsebene gemeint, so würde die korrekte Aussage lauten „Ich fahre eine Bahn entlang.“
  2. Ich würde ebenfalls bestreiten, dass der Computer das Anweisungsset verstehen kann. Vielmehr ist es nur ein automatischer Ablauf von Aktionen und Reaktionen, die eingehende Symbole in ausgehende Symbole umsetzt. An welcher Stelle das Verstehen der Anweisung auftritt, ist mir unklar.

Die Maschine als „Wanton“

On 27. September 2012, in Philosophie, Technik, by Ingo

Harry Frankfurt hat in seinem vielzitierten Essay „Freedom of the will and the concept of a person“ das Konstrukt des „Wanton“ entworfen. Ein Wesen, das nur Wünsche oder Willen erster Ordnung hat. Ich frage mich dabei, ob eine autonome Maschine als ein solcher „Wanton“ gelten könnte – und ob das wirklich so schlimm wäre?

Nun aber mal langsam. Wünsche erster Ordnung? „Wie viele gibt‘s denn da?“ fragt sich vermutlich nun der eine oder andere. Grundlegend: Unendlich viele. Aber es ist, so Frankfurt, nicht wirklich hilfreich mehr als zwei Ebenen anzunehmen. Ein Wunsch erster Ordnung ist dabei etwas wie „Ich wünsche mir Gummibärchen“ oder „Ich wünschte, ich könnte heute Abend ins Kino gehen.“ Die Zweite Ordnung ist dann ein Wunsch der auf einen Wunsch erster Ordnung Bezug nimmt. Also: „Ich wünschte, ich würde mir wünschen, heute Abend ins Kino zu gehen.“[1] Dabei kommt es darauf an, dass ein Wunsch erster Ordnung zwar handlungsmotivierend ist, aber quasi durch einen Wunsch zweiter Ordnung bestätigt werden muss – als rationale Reflexionsebene.
Die zweite Ebene entscheidet darüber, ob ein Wunsch wirklich wünschenswert ist. Also: „Ich wünsche mir Gummibärchen.“ auf der ersten Ebene und „Ich wünschte ich würde mir Gummibärchen wünschen.“ auf der zweiten Ebene. Die zweite Ebene kann aber auch davon abweichen. So kann ich auf der ersten Ebene meinen Gummibärchen-Wunsch ausprägen und auf der zweiten Ebene denken „Ich wünschte, ich wünschte mir Salat, das ist nämlich viel gesünder.“ Für Frankfurt sind nur diejenigen Personen, die ihre Wünsche erster Ordnung mit Wünschen zweiter Ordnung bestätigen können.
Ganz ähnlich verhält es sich dann mit dem Willen. Es geht dann nämlich darum, einen Willen zu wollen, respektive die Frage, ob ich wirklich will, was ich will – also darum, ob ich zwar tun kann, was ich will aber auch wollen kann, was ich will. Wirklich echte Willensfreiheit besteht eben nur dann, wenn ich auch wollen kann, was ich will.

Wenn ich nun aber eine introspektive Selbstanalyse betreibe, dann stelle ich fest: In unglaublich vielen Alltagssituationen bin ich ein „Wanton“. Ich denke nicht darüber nach, ob es nun wirklich begehrenswert ist, Pizza zu bestellen oder Schnitzel zu essen oder ins Kino zu gehen. Ich habe einfach Lust darauf und mache es. Sicherlich wäge ich zwischen diesen Begehren ab (was mich zu einem „rationalen Wanton“ macht), aber so ganz alltäglich verlasse ich die erste Ebene der Wunsch- und Willensbekundungen nicht. Erst dann, wenn es um größere Anschaffungen geht, aber auch dann nur selten, überlege ich, ob es wirklich das ist, was ich will und/oder brauche. Sprich: „Ich will das neue iPhone! => Aber es scheint von der Verarbeitungsqualität her einfach grauenhafter Mist zu sein und ist sowieso nur ein Stück größer und ein bisschen schneller. Will ich das wirklich? Nein…“
Erfahrungsgemäß kann ich also im alltäglichen Leben ohne eine zweite (oder gar noch mehr) Reflexionsebene überleben. Und es tut meinem vernünftigen Umgang mit der Welt auch gar keinen Abbruch.

Das wiederum bringt mich zu den autonomen Maschinen. Wir wollen sie ja als Alltagshelferlein einsetzen. Also als Geräte, die ganz alltägliche Dinge tun sollen. Wäre es ihrer Autonomie abträglich, wenn sie nicht in der Lage sind, eine zweite Reflexionsebene ihres Willens auszuprägen? [2] Ich denke nicht. Es reicht vollkommen aus, wenn sie ihre Handlungen auf erster Ebene koordinieren können. Mehr machen wir Menschen im Alltag auch nicht. Und warum sollten wir von einer Maschine übermenschliche Fähigkeiten verlangen?
Wird die Maschine beispielsweise dazu eingesetzt die Wohnung sauber zu machen und aufzuräumen, dann wären einfache Ausprägungen wie „Ich sauge jetzt Staub.“ völlig ausreichend. Ein „Ich will staubsaugen wollen.“ ist relativ überflüssig, da eine Maschine kaum einen übergeordneten Grund braucht, um sich selbst zur Arbeit zu motivieren. Sie erkennt lediglich einen Handlungsbedarf (der Teppich ist schmutzig) und führt diesen in eine Handlung über (es wird gesogen). Auch eine Abwägung zwischen zwei verschiedenen Handlungen (Staubsaugen oder Abwaschen) kann auf erster Ebene im Rahmen eines statistisch errechneten Dringlichkeitsindexes getroffen werden. Es ist also gar nicht nötig, dass sich unsere autonome Maschine ihrer eigenen Handlungsmotivationen auf einer übergeordneten Ebene versichert. Somit darf sie ein Wanton sein, ohne dass es ihre Autonomie gefährden würde.

Footnotes    (↵ returns to text)

  1. Ein Gedanke, der womöglich entsteht, wenn es so langweilig ist, dass man so rein gar nichts mit sich selbst anzufangen weiß.
  2. Bei einer Maschine von „Willen“ oder Wünschen zu reden mag hier verwundern, ist aber, auf artifizieller Ebene, durchaus legitim, wie Andreas Matthias in seiner Arbeit „Automaten als Träger von Rechten“ herausgearbeitet hat.
Tagged with:  

Die Asimovschen Gesetze

On 24. August 2012, in Philosophie, Technik, by Ingo

Ich denke gerade über meine Master-Arbeit nach und komme dabei auf den einen oder anderen interessanten Nebengedanken, der da nun nicht wirklich viel zu suchen hat, aber vielleicht Basis anderer Arbeiten sein könnte. Im Kern geht es um die Autonomie von autonomen Systemen aller Art. Dass Roboter hier einen zentralen Punkt darstellen, ist allein deshalb schon sinnvoll, weil sich die meisten Menschen intuitiv viel mehr darunter vorstellen können, als unter einer Software, die automatisch Geschäftsabschlüsse tätigt, wie es beispielsweise an der Börse der Fall ist

Wenn nun von Robotern die Rede ist, und dann auch noch solchen, die selbstständig handeln können sollen, dann ist es schwer, um die Asimovschen Robotergesetze herumzukommen. Grundsätzlich gibt es nur drei Paragraphen. Drei einfache Regeln:

§1. Ein Roboter darf kein menschliches Wesen verletzen oder durch Untätigkeit gestatten, dass einem menschlichen Wesen Schaden zugefügt wird.
§2. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.
§3. Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.

Reicht das schon? Und wären dann nicht sogar einige Einsatzgebiete heutiger Roboter völlig undenkbar? Ich bin verlockt, die einzelnen Regeln je für sich selbst aufzudröseln.

§1. Ein Roboter darf kein menschliches Wesen verletzen oder durch Untätigkeit gestatten, dass einem menschlichen Wesen Schaden zugefügt wird.

Die Regel sagt aus, dass ein Roboter explizit nichts tun darf, was einen Menschen verletzt und darüber hinaus, muss die Maschine die Menschen vor Schaden bewahren. Würde ein Roboter also sehen, dass ein Mensch gleich von einem Auto überfahren wird, dann müsste er loslaufen und den Menschen wegschubsen. Auch dann, wenn die Maschine selbst vom Auto überfahren werden würde. Einen Konflikt mit §3 gäbe es nicht, denn die Untätigkeit würde zwar dazu führen, dass die Maschine sich selbst schützt, aber eben auch dazu, dass ein Mensch zu Schaden kommt – und das darf nicht zugelassen werden. Der erste Paragraph sagt nun aber nicht viel mehr aus, als dass eine Maschine niemals selbst entscheiden dürfte, einen Menschen aktiv zu verletzen.

§2. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.

§1 und  §2 schließen aber auch Handlungen aus, wie diejenigen, die wir heutzutage schon lange beim Einsatz von Robotern sehen können. Nehmen wir allein die Kampfroboter und Kampfdrohnen, die sich im Nahen Osten im Einsatz befinden. Da das US-Militär mehr und mehr Autonomie in die Systeme hineinbringen könnte, wäre ein Gesetz, dass es verbietet, dass Menschen verletzt werden, geradezu hinderlich. Man stelle sich einen MARSS-Roboter vor, der sich weigert, feindliche Soldaten zu erschießen.Oder einen Packbot, der Sprengfalle nicht entschärfen will, weil die Wahrscheinlichkeit besteht, dass er zerstört werden könnte, wenn bei der Entschärfung etwas schief geht. Nach §2 würde ein Roboter jeden menschlichen Befehl ausführen, solange dabei kein anderer Mensch durch bewusstes Handeln oder Untätigkeit verletzt wird. Ich könnte meinem Roboter also zwar befehlen, er solle meinen Nachbarn verprügeln, er würde diesen Befehl wohl aber ignorieren. Genauso könnte ich ihm befehlen, eine Zeitung kaufen zu gehen, während im nahen Fluss ein Kind ertrinkt – auch hier würde dieser Befehl wohl oder übel auf Ignoranz stoßen und von §1 übertrumpft werden.

§3. Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.

Diese Regel ist insofern sinnvoll, als dass die Anschaffung eines Roboters, beispielsweise als Haushaltshelferlein oder als persönlicher Assistent, sicherlich ein kostspieliges Unterfangen ist. Der Besitzer oder die Besitzerin möchte sicherlich nicht, dass die teure Maschine zerstört wird. Explizit geht es um die Existenz – Schäden werden also hingenommen, Zerstörung nicht. Ein Roboter ist also in der Lage, gefährliche Aufgaben auszuführen oder sich in einem Gebiet zu bewegen, dass ihm selbst Schaden zufügen würde, solange es nicht wahrscheinlich ist, dass er dabei zerstört wird. Das eben erwähnte ertrinkende Kind würde aber trotzdem gerettet werden, auch wenn die Maschine nicht wasserdicht konstruiert ist und ein Rettungsversuch mit der eigenen Zerstörung einherginge.
Was ist aber, wenn ich nun versuche meinen Roboter zu zerstören? Angenommen, ich will ihn nicht mehr haben oder kaufe mir einen Neuen – und will ihn verschrotten, wie ein altes Auto? Nun, vermutlich würde die Maschine weglaufen. Sie darf keine Menschen verletzten – aber sie darf sich wehren. Würde ich nun also mit einem Vorschlaghammer auf sie zulaufen, um sie in Stücke zu schlagen, würde sie mich womöglich entwaffnen, ohne mich zu verletzten. Aber wie werde ich die Maschine dann wieder los? Wie besiege ich die Geister, die ich rief? Das ist ein Problem. Keine dieser Maschinen, die sich an das dritte Gesetz halten, könnten jemals verschrottet werden. Sie würden es schlicht nicht zulassen.

Insgesamt gibt es noch ein paar andere Probleme. Was macht eine Maschine, die nicht zulassen darf, dass ein Mensch durch ihre Untätigkeit zu schaden kommt, wenn sie eine Straßenschlägerei sieht? Offensichtlich kommen Menschen zu Schaden – sie sind gerade im Begriff sich gegenseitig zu verletzten. §1 verbietet es, Schaden durch Unterlassen entstehen zu lassen. Somit müsste die Maschine eingreifen und die sich prügelnden mit sanfter Gewalt, ohne sie zu verletzten, voneinander trennen. Sie müsste sie im Grunde festhalten, bis sie sich wieder beruhigt haben. Und so eine Maschine kann unglaublich viel Geduld haben…. Weiterhin könnte man solche Maschinen niemals als Zuschauer bei Boxkämpfen, Sumoringen oder Karate-Veranstaltungen mitnehmen. Menschen verletzten sich dabei gegenseitig und die Maschinen wären gezwungen einzuschreiten und die sich streitenden Menschen voneinander zu trennen. Man könnte ihnen ja nicht einmal befehlen, es nicht zu tun, denn §1 steht über §2 und kollidiert ganz eindeutig damit. Müsste man den Maschinen dann nicht ein „zulässiges Maß“ an Verletzungen implementieren? Das wiederum wirft eine ganz neue Fragestellung mit ganz neuen Problemen auf: Kann es Verletzungen geben, die wir Menschen uns gegenseitig zufügen wollen? Eine Maschine darf uns keine Verletzungen zufügen, wir uns gegenseitig aber schon? Warum? Wäre es dann nicht auch akzeptabel, gegen eine Maschine Kampfsport zu betreiben? Sicherlich wären die Asimovschen Gesetze damit hinfällig, aber es wirft ein ganz neues Licht auf unsere menschliche Vernunft. Wir sind also, qua Mensch, in der Lage, uns aus vernünftigen Gesichtspunkten betrachtet, im Rahmen des Sports, gegenseitig zu verletzten. Wir würden aber nicht wollen, dass wir von einer Maschine verletzt werden. Es leuchtet mir ehrlich gesagt nicht ein, warum nicht. Vielleicht, weil ein menschlicher Boxer irgendwann erschöpft ist und sich als besiegt ergeben kann? Nun – dann statten wir die Maschine mit Trefferzonen aus die statistisch berechnen, wann ein durchschnittlicher Kämpfer oder eine durchschnittliche Kämpferin bei einem bestimmten Schwierigkeitsgrad erschöpft und besiegt wäre – damit könnte sich auch die Maschine ergeben.

Es scheint da aber noch mehr zu sein, dass uns Menschen Angst macht. Immer, wenn ich mich mit Freunden und Bekannten über das Thema unterhalte, wird klar, dass vieles davon mit der kühlen Computerlogik zu tun hat, die den Maschinen anhaftet. Sie fühlen nicht in dem Sinne wie wir Menschen – sie berechnen die Wahrscheinlichkeit für den Ausgang einer Handlung anhand von statistischen Prognosen. Das menschliche Gehirn funktioniert zwar ganz ähnlich – aber wir sind auch in der Lage etwas wie ein schlechtes Gewissen zu haben. Skrupel zu empfinden, Angst vor einer Entscheidung zu haben, darunter zu leiden, dass wir auf eine bestimmte Art und Weise gehandelt haben. Reue, Mitleid, Scham, Angst – all das geht einer Maschine völlig ab. Zumindest im Moment noch. Und selbst wenn es eines Tages möglich wäre, Maschinen mit Emotionen zu erschaffen, [1] dann ist dennoch nicht davon auszugehen, dass sie genau so empfinden werden wie Menschen – sondern womöglich „irgendwie anders“. Wie, werden wir aber nie wirklich erfahren. Wir können ja selbst bei anderen Menschen nur sehr grob sagen, wie sie sich wohl jetzt gerade fühlen mögen, aber niemals exakt wiedergeben, was gerade in einer anderen Person vor sich geht. All zu oft können wir ja selbst nicht mal sagen, wie es uns gerade geht. Klar, ganz oberflächlich betrachtet ließe sich die Frage, wie‘s denn geht, einfach mit „gut“ oder „schlecht“ beantworten. Wenn ich aber ein wenig darüber nachdenke, dann könnte ich keine genaue Antwort darauf liefern. Wie‘s mir geht? Ich weiß nicht, was damit gemeint ist. Ich müsste darüber nachdenken in welchem Zusammenhang die Frage gemeint ist. Wie ich mich fühle? Das kann ich nach kurzer Introspektion sicherlich beantworten. Warum ich mich aber so fühle, wie ich mich gerade fühle? Dazu braucht es dann schon ein wenig intensiveres Nachforschen.
Für die nüchterne Maschinenlogik liegt das alles auf der Hand. Selbst wenn sie Emotionen auf irgendeine Art und Weise nachstellen (oder vielleicht sogar empfinden!) könnten, wären sie jederzeit in der Lage zu sagen, wie und warum sie gerade in diesem oder jenem Zustand sind. Immerhin ist alles minutiös gespeichert. Was vielleicht ein wenig Menschlichkeit in die Maschine brächte, wäre die Fähigkeit zu vergessen. Da wir aber noch nicht genau wissen, wie der Mechanismus des Vergessens und Verdrängens beim Menschen so funktioniert, wird das ein langer Weg, bis die Maschinen so weit sein werden.

Die Asimovschen Gesetze sind also durchaus sinnvoll – können aber zu Konflikten führen, wenn sich die Maschinen wirklich 1:1 daran halten. Wir wären niemals in der Lage, sie zu verschrotten und sie würden uns jederzeit vor uns selbst beschützen wollen, weil sie nicht zulassen dürfen, dass Menschen verletzt werden. Letztlich könnte es dazu führen, dass sie uns unserer Autonomie berauben, denn es kann Situationen geben, in denen wir Menschen uns gegenseitig verletzten und Schaden zufügen wollen. Dass das nicht immer sehr vernünftig ist, steht außer Frage – soll hier aber nicht weiter diskutiert werden. Die nüchterne Computerlogik könnte also die Intention entwickeln, Menschen vor Menschen beschützen zu müssen. Und wenn man Menschen einsperrt, sie quasi unter Hausarrest setzt, dann verletzt man sie ja nicht – man schränkt nur ihre Bewegungsfreiheit ein. Mit allem nötigen versorgt werden sie ja trotzdem – dazu sind die Maschinen ja gebaut worden.

Vielleicht sollten wir uns bessere Gesetze für autonome Roboter einfallen lassen. Oder einfach netter zueinander werden und aufhören uns gegenseitig schaden zu wollen. Ersteres scheint allerdings das erreichbarere Ziel.

Footnotes    (↵ returns to text)

  1. Ich würde es vorziehen, wenn meine Haushaltsmaschine oder die, die mein Auto bauen, sich nicht ob der eintönigen, anstrengenden Arbeit beschweren und womöglich sogar noch auf die Idee kommen, eine Gewerkschaft zu gründen…
Tagged with:  

Die Schuld autonomer Maschinen

On 8. August 2011, in Philosophie, Technik, by Ingo

Wie Heise berichtet, wäre es unklar, wer die Schuld hat, wenn ein autonomes Fahrzeug, wie Google sie offenbar erforscht, einen Unfall baut. Das hätten zumindest „zahlreiche Kommentatoren“ behauptet. Nun, vielleicht lässt sich ein wenig Klarheit in die Gedanken der Kommentatoren bringen.

Wenn ein Mensch in einen Unfall verwickelt ist, dann tendieren wir dazu, die Schuld bei eben jenem zu suchen. Menschliches Versagen, Fahrlässigkeit, Fehleinschätzung der eigenen Fähigkeiten – all das kann zu einem Unfall führen.

Was ist mit der Maschine? Bisweilen glauben wir, Maschinen wären fehlerlos, könnten nicht unachtsahm sein, von Fahrlässigkeit sei keine Spur und sich falsch einschätzen kann sie auch nicht, denn sie ist mit den Daten über ihre Eigenschaften gefüttert und damit immer im Bilde. Aber: Sind Maschinen fehlerlos? Jeder, der bei einem einfachen Ausdruck die Freuden eines Papierstaus beobachten durfte, wird das verneinen können. Und je komplexer die Maschine wird, desto dramatischer könnten die Folgen des Fehlers sein. Mehr noch: Eine eine intelligente Maschine muss Fehler machen!

Wenn von autonomen, selbstlernenden und intelligenten Maschinen die Rede ist, dann meint man damit meist Computer, die mit genetischen Algorithmen arbeiten oder die auf eine ähnliche Art und Weise ihre ursprüngliche Programmierung anpassen und somit lernen können. Die Maschine entscheidet – nicht mehr ihr Programmierer. Sie ist in der Lage, ihr eigenes Programm den neuen Bedingungen anzupassen. Das heißt auch, dass das System zwingend darauf angewiesen ist, Fehler zu machen. Wie sollte die Maschine sonst lernen, was richtig und was falsch ist? Wie sollte sie die wahrscheinlichen Auswirkungen ihres Handelns abschätzen können, wenn sie niemals Fehler machte? Um zu lernen und selbstständig zu entscheiden, sind Fehler zwingend nötig.

Wer hat also die Schuld? Nun: Die Maschine! Im Beispiel um Googles Robot-Autos hätte im Autopilot-Betrieb nicht etwa der Mensch schuld, sondern der Computer, der das Fahrzeug lenkt. Bei einer lernenden Maschine kennt der Erbauer nämlich den Zustand der Maschine nicht mehr – sie hat sich ja verändert, in dem sie gelernt hat. Trifft die Maschine also eine falsche Entscheidung, ist die Maschine an den Folgen schuld. Da nun jedes Auto auf eine Weise versichert sein muss (der Halter muss ja schließlich eine Haftpflichtversicherung abschließen), ist das also im Grunde gar kein großes Problem. Ich würde meinen, dass es sich bei einer autonomen Maschine um eine geschaffene Gefahrenquelle handelt, wie man sie bereits kennt. Vielleicht auch vergleichbar mit einem Hund, für den man auch Versicherungen abschließen kann, für den Fall, dass er, warum auch immer, jemanden beißt und damit eine Schädigung herbeiführt.

Tagged with:  

Über den Wolken

On 3. Juli 2011, in Technik, by Ingo

Cloud-Computing scheint in den letzten Monaten der neue Hype des Internets zu sein. Wann immer etwas berechnet, gespeichert oder verarbeitet werden soll, wozu man selbst gerade nicht die Kapazitäten hat, da kann man es neuerdings „in die Cloud“ schieben und da bearbeiten lassen. Manchmal kostet das eine Kleinigkeit, manchmal ist das aber auch vollkommen kostenlos. Geradezu als Magie wird die schöne neue Welt der Wolken verkauft (sicher, man möchte damit Geld verdienen) und als schnell, sicher und stabil angepriesen. Wenn man der Wolkenassoziation folgt, dann ist das recht fragwürdig, ziehen Wolken doch meistens eher langsam über den Himmel, lösen sich gern einfach in Wohlgefallen auf und künden auch nicht selten von Regen. Ein paar kritische Gedanken zur schönen neuen Wolkenwelt sind da durchaus angebracht.

Sicherheit

Ein wesentliches Argument von Cloud-Betreibern ist, dass die Daten sicher aufbewahrt sind. Die eigenen Backups zu Hause könnten verloren gehen, wenn dann doch mal das Haus brennt oder sie bei einem Einbruch gestohlen werden. Ein dummer Zufall – schwupp – sind alle Daten ex nunc. Gern wird dieses Bild noch mit emotional aufgeladenen Begriffen verknüpft: Urlaubs- und Erinnerungsfotos gehen verloren, wichtige Dokumente wie gescannte Zeugnisse oder Arztberichte, die private Musiksammlung ist für die Katz und das Video von Omas 90. Geburtstag kann man auch vergessen. In der Cloud aber seien diese Daten vor aller Unbill des Lebens geschützt. Warm und wohlbehalten lagern sie in Rechenzentren und sind immer und überall abrufbereit. Das ist ja wunderbar. 🙂
Leider vergessen die Betreiber dabei, dass auch sie ihre Server meistens nur durch eine Passwortabfrage sichern – und solche Passwörter sind, wie wir in der allerjüngsten Vergangenheit immer wieder festgestellt haben, nur bedingt sicher. Vor allem dann, wenn nicht wirklich klar ist, wie denn die Server gegen Hacks geschützt werden. Der Schutz der Systeme wird nämlich grundsätzlich zum Geheimnis. Security by obscurity ist zwar schon seit Ende der 1990’er Jahre kein sicherer Schutz mehr, wird aber allenthalben immer noch gern praktiziert. Wie nun hinlänglich bekannt sein dürfte, lässt sich auch das geheime Sicherheitssystem recht schnell umgehen und die dahinterstehenden Betreiber bloßstellen. Was hilft es also, wenn die Daten zwar vor Feuer, Überflutung und Co. geschützt sind, aber eine findige Hackergruppe, einfach so zum Spaß, daherkommen und sie einfach löschen könnte? Genau: Nicht all zu viel. Aber auch Systemfehler können dazu führen, dass der Schutz nicht mehr all zu wirksam ist. So stand beispielsweise beim Betreiber Dropbox vor kurzem einfach mal eine Weile lang alles offen und frei zur Verfügung. Wie üblich empfiehlt es sich, die Daten zu verschlüsseln. Tools wie TrueCrypt leisten dazu recht gute Dienste. Und: Die Zeit, ein Passwort eingeben zu müssen (oder es aus einem 1Password-Fenster zu kopieren, weil man sich dermaßen lange Passwörter, die halbwegs sicher sind, natürlich nicht merken kann), sollten einem die Urlaubsfotos und Omas 90. Geburtstag dann schon wert sein – Zeugnisse und Co. erst recht. Die Benutzung eines Passwortgenerators, aus dem sich dann die Passwörter herauskopieren lassen, bietet übrigens den Vorteil, dass es keinerlei Tastatureingaben gibt, die von einem Keylogger angefangen werden könnten. Klar – man muss immer noch die Datei schützen, in der dann die Passwörter gelagert werden und diese wird eben auch wiederum durch, wer hätte es gedacht, ein Passwort geschützt – aber das ist ein Designfehler der Software. Microsofts kommende Windowsversion lässt z. B. den Login durch ein zusammenklickbares Muster zu – ganz ohne eine Passwortabfrage, die abgefangen werden könnte. Das scheint auf den resten Blick schon mal ein bisschen sicherer zu sein. Allerdings vermute ich, dass sich auch Mausbewegungen abfangen und die Muster dahinter berechnen lassen.

Stabilität

Klar, so ein Rechenzentrum ist in den meisten Fällen rund um die Uhr erreichbar. Allerdings weiß auch jeder, der wie ich einen Webserver betreibt, der sich die Ressourcen mit anderen teilt, dass es schnell mal zu Engpässen kommen kann, wenn ein anderer Nutzer spontan mehr Leistung braucht, als man selbst und die Kapazitäten dementsprechend neu verteilt werden (ist besonders nervig, wenn man mitten in einem Drupal-Update ganz plötzlich einen 500-Fehler bekommt, der scheinbar gar keine Ursache hat und von der dann anschließend der Support verkündet, dass zu dem Zeitpunkt, zu dem der Fehler aufgetreten war, einfach nur die Lastverhältnisse neu verteilt wurden). Die Festplatte auf meinem Schreibtisch ist immer verfügbar. Es gibt auch keine Lastspitzen, die verhindern könnten, dass ich darauf zugreife. Und Verbindungsfehler über USB habe ich auch noch nie erlebt (was ja nicht heißt, dass sie nicht vorkommen könnten, aber eben auch, dass sie vermutlich so selten sind, dass man sie qua Wahrscheinlichkeit ausschließen kann). Allerdings habe ich auch vom spontanen Verbindungsabbruch bei Clouddiensten noch nie etwas gehört – wenn jemand einen Hinweis hat, immer her damit. 🙂

In Punkto Stabilität kann man also in der Tat kaum etwas bemängeln – es sei denn, ein ganzes Rechenzentrum oder eine zentrale Leitung zu einem eben solchen fällt spontan aus (oder wird, wie man es kürzlich ebenfalls gerüchteweise miterleben durfte, von Hackern offline genommen).

Dennoch bleibt ein mulmiges Gefühl. Wenn ich Daten lokal speichere, habe ich zumindest noch ein Gefühl davon, wo sie sich befinden. Nämlich auf der Festplatte vor mir auf dem Schreibtisch oder auf einer der Festplatten in meinem Computer. In der Cloud wird eben dieser Aufbewahrungsort diffus und nicht mehr greifbar – dafür aber angreifbar. Der Vorteil, von überall aus auf die Daten zugreifen zu können ist somit zugleich ein Nachteil. Bedenkt man nun auch noch, dass zum Beispiel Microsoft auch Dritten Zugriff auf die gespeicherten Daten gibt, wenn das Unternehmen dazu aufgefordert wird, dann wird um so deutlicher, dass man seine Daten im Grunde aus der Hand gibt. Ein unangenehmes Gefühl, nicht mehr Herr über die Urlaubsfotos und das Video von Omas 90. Geburtstag zu sein. So wie man immer ein eher unwohles Gefühl hat, wenn man das private Eigentum in die Hände eines anderen legt, dieser einem aber „aus Sicherheitsgründen“ nicht sagen will, wie er die Sachen verwart und wem er sie sonst noch zeigen könnte.

Nun, es bleibt abzuwarten, wie sich die Cloud-Dienste entwickeln. Immerhin sind selbst Regenwolken zu etwas nütze – denn ohne Regen würde nichts neues mehr wachsen. Warten wir also mal ab, was da noch so wächst. 🙂

Tagged with:  
%d Bloggern gefällt das: