Freitag, 9. September 2016

Moral Machine


Sehen Sie, IRGENDWER wird IRGENDWANN den selbstfahrenden Autos per Programmierung erklären müssen, wie die sich zu verhalten haben in Situationen, in denen WERTE und MORAL gefragt sind.

FALLS wir selbstfahrende Autos auf den Straßen haben wollen.

Glauben Sie nicht, hmm.
Ich seh' schon.
Wie immer.

Mal angenommen, SIE sitzen am Steuer und geraten eine Situation, in der es
NUR ZWEI Möglichkeiten zu reagieren gibt.
Und diese zwei Möglichkeiten lassen Ihnen im Prinzip nur die Wahl:  Ich - oder der Andere.

WIE entscheiden Sie da?

Erstmal das eigene Leben schützen, ist ja legitim?
Hhmm ok. DAS war noch einfach.

Was machen Sie, wenn da ein SCHULKIND auf die Straße springt?
Und Vollbremsung nicht mehr geht?

Was bei ZWEI Schulkindern?
Oder drei?
Und Sie sitzen ALLEINE ohne Verantwortung für Passagiere im Auto?

UND WIE SOLLTE IHR AUTO SICH DANN VERHALTEN, wenn es selbst entscheiden müsste? (!)

Was werden Sie tun, wenn Sie zwischen verschiedenen MENSCHENLEBEN im Bruchteil einer Sekunde werden abwägen müssen?
Sagen wir, Sie halten geradeaus drauf - dann sterben 3 Frauen.
Oder Sie weichen aus auf die Gegenspur - dann sterben 3 Männer?

Was machen Sie, wenn das 3 Junge und 3 Alte sind?
Was machen Sie, wenn Sie zu unterscheiden haben zwischen 3 Ärzten und 3 Bankräubern?
Was werden Sie tun, wenn Sie 4 Kinder im Auto haben - und 6 vor Ihnen auf der Straße?

Erlauben Sie dem Auto, 3 Kinder zu retten - um den Preis IHRES Lebens? Ja? Nein?

Vielleicht kommen Ihnen diese Fragen sehr komisch vor - aber IRGENDWIE werden wir uns da einigen müssen.
IRGENDWER wird den Dingern die Regeln und Werte  beibringen MÜSSEN, wie sie sich in tausendstel Sekunden zu entscheiden und wie sie werden abzuwägen haben.

Sind Sie neugierig geworden?
Dann willkommen zur Moral Machine des MIT:

13 Fragen, sie Sie noch beschäftigen werden.
Versprochen^^.




Kommentare:

  1. Too hard stuff. Habe bei Frage 4 abgebrochen. (fly)

    AntwortenLöschen
    Antworten
    1. Und soll das Auto dann auch dort abbrechen?

      Löschen
    2. Ich habe keine Antwort drauf. Ich will auch keine selbstfahrenden Autos. Aber es wird leider vermutlich nicht meine Entscheidung sein. (fly)

      Löschen
    3. Mein bisheriger Eindruck zu diesem Thema:
      Es wird MEHR Unheil durch NICHT autonom fahrende Fahrzeuge angerichtet, ich halte Maschinen an DER Stelle für sehr sinnvoll.

      Wer anderer Meinung ist, darf sich gerne mal 2 Stunden auf meinen Beifahrersitz setzen, wenn wir durch Landeshauptstadt fahren.
      Das dürfte heilsam sein.

      Löschen
  2. So gern ich die Technik habe, wir Menschen sollten sie nochmal hinten anstellen und uns statt dessen darum bemühen, diesen moralischen Gedanken auf unser Alltagsleben zu übertragen. Solange jeden Tag ungezählte Kinder und Frauen missbraucht und gequält werden, sind wir doch reichlich unqualifiziert, Maschinen etwas beizubringen.....

    AntwortenLöschen
    Antworten
    1. Guter Punkt!
      Aber wir haben die WAHL nicht und auch nicht die ZEIT, es MUSS eine Programmierung erfolgen, sonst -und darum gehts ja- wird es keinen SCHULDIGEN geben.

      Unser gemeinschaftliches Zusammenleben ist nicht mit Blick auf Menschlichkeit und Gerechtigkeit reguliert, sondern rein auf die Suche nach einem, dem man die Verantwortung für irgendetwas verpassen kann und dafür Sanktionierungskataloige erstellt.

      Und mein Wort drauf: DAS zu erhalten und weiterzuführen hat OBERSTE Priorität für die Herrschenden. Weit vor humanitären Überlegungen.

      Löschen
    2. Ja ok, dann vielleicht so: eine Maschine kann, genug Rechenpower vorausgesetzt, zig Situationen im voraus berechnen, sie kann sämtliche physikalische Gegebenheiten einbeziehen und den kleinstmöglichen Schaden auswählen. Ähnlich, wie „Alpha-Go“ das gemacht hat. Sie lernte tausende Spielzüge und konnte sich dann für den besten entscheiden.

      Ein Unfall erfolgt immer nach denselben physikalischen Gegebenheiten. Die muss man der Maschine also beibringen, sowie genaue Kenntnisse über die Anatomie des Menschen; welcher Einschlagwinkel welche Verletzung hervorruft und welche Verletzungen schwerer wiegen. Ein gebrochenes Bein ist einfacher zu heilen, als ein gebrochener Rücken. Natürlich gibt es auch in diesem Fall genügend Unwägbarkeiten, die man (als Mensch) nicht berechnen kann; wenn der mit dem gebrochenen Bein ein Bluter ist, kann er trotzdem sterben. Vielleicht können Maschinen irgendwann so schnell schalten und noch eben in irgendeiner Datenbank nachgucken; bis dahin sollte es reichen, alle bisherigen Unfälle zu nehmen und die Autos damit zu füttern. Ihnen bis ins kleinste Detail zu zeigen, was bei einem Unfall passiert, sie anschließend ausrechnen lassen, was man hätte anders machen können und in Zukunft bei ähnlichen Situationen anders machen kann. Das wäre jedenfalls realistisch. Diese Fragen hingegen, zäumen das Pferd von hinten auf. Sie probieren Stimmung zu machen, uns dahingehend zu erziehen, dass wir Leben gegen Leben aufwiegen. Wir sollten es meiden, uns derart instrumentalisieren zu lassen und den Maschinen lieber beibringen, den Ereignishorizont während eines Unfalls so klein wie möglich zu halten.

      Löschen
    3. Nö, das denke ich eigentlich nicht - die Situation, Schadenpotenzial abwehren zu müssen, stellt sich Mensch wie Maschine gleichermaßen.

      Es mit dem geringstmöglichen Schaden (auf den man sich noch einigen muss, was das heißt) versuchen, ausgehen zu lassen, hat für mich nichts mit instrumentalisiert werden zu tun. Sondern mit Vernunft.

      Löschen
  3. Wenn wir's schon von Zukunftsmusik haben: In Star Trek ist häufig das Bonmot zu hören, dass das "Wohl der Vielen das der Wenigen überwiegt" (Utilitarismus). Eine Auffassung, die ja nach deutschem Recht explizit nicht so gilt. Vielleicht werden wir uns darauf (wieder) zubewegen, sollte autonomes Fahren gängige Praxis werden. In dem Test (Moral Machine)habe ich mich ausnahmslos dafür entschieden, die Passagiere (zu denen ich ja im Test gehöre) zu retten. Des Weiteren "jung vor alt", "fit vor fett", gut vor schlecht", etc. Eine aber zu theoretische Debatte, denn in der Realität würde man wohl so manches Mal anders handeln, die Information, den Aufprall auf das Hindernis definitiv nicht zu überleben, hat man ja nur im Experiment, nicht in der Realität. Auch das Vorhersagen menschlicher Handlungen (wie schnell kann ein Passant ausweichen, "fit" vor "fett"?, etc. ) kann nicht gelingen. Die komplette Tragweite seiner Entscheidungen kann man im konkreten Moment des Unfalls ja nicht überschauen.
    Ich habe kurz nach bisherigen Vorkommnissen recherchiert und bin dabei z. B. auf einen Fall gestoßen, bei dem ein Fahrer einen Schlaganfall am Steuer erlitten hat und das Fahrzeug durch den automatischen Spurhalteassistenten ein, zwei km weiterfuhr und dabei Menschen ums Leben kamen. Hm. Soll oder kann man das nun aufwiegen gegenüber den Menschenleben, die durch dieses Sicherheitssystem vielleicht bereits gerettet wurden?
    Insgesamt dürfte die Diskussion über autonomes Fahren dennoch eher eine mathematische als eine ethische werden.
    JvO

    AntwortenLöschen
    Antworten
    1. Jesus, bin ich mal wieder erschrocken.
      "JvO".
      So kürzt sich meine ehemalige Vorgesetzte ab ;-)).
      Kurz durchatmen.

      Utilitarismus ist in der Tat etwas, was sehr viel stärker Einfluss in unsere Rechtssprechung und unseren Umgang haben sollte.
      Aber die THEORETISCHE Debattierung reicht ja schon - wir reden ja über zukünftige Dinge, die im ersten Rutsch "geregelt" werden sollen und müssen.

      Dass hier Mathematik bzw. Programmierung sehr viel größere Beiträge leisten als früher, liegt in der Natur der Sache. Aber das mindert m.E: nicht den großen, gewaltigen ethischen Aspekt, über den hier mit entschieden werden muss.

      Und zur letzten Frage: Ja, da KANN MAN gar nicht anders, als Erfolge und Kollateralschäden miteinander aufzurechnen. Wenn Beides vorkommen kann und wird, sobald man es einsetzt, muss man abwägen.

      Wir wären dann wieder beim Utilitarismus: 100 gerettete Fahrerleben rechtfertigen bspw. 4 verlorene.
      So funktionieren Gesellschaften, die an ihrem Fortbestand interessiert sind.

      Löschen
    2. Exakt. Beziehungsweise: Eben. Utilitarismus als "Vorgabe von oben" mag seine Berechtigung haben, dieses Verhalten aber vom Einzelnen in einer konkreten (Gefahren-)situation einzufordern, ist eine andere Sache. Anders formuliert: Ein "utilitaristisch programmiertes" Fahrzeug schützt demnach mich als Fahrer unter Umständen weniger als Dritte bzw. nimmt sogar meinen Tod billigend in Kauf - durchaus dann ein, zwei Überlegungen wert, bei der Wahl des Fortbewegungsmittels (?). Es dürfte interessant sein, wie das eines Tages kommuniziert werden wird und wie dann beispielsweise der Vertragsentwurf einer simplen Kfz-Versicherung aussehen wird.
      Autonomes Fahren wird kommen, früher oder später, aber es wird, davon bin ich überzeugt. Vermutlich wird das einigermaßen langweilig werden.

      Löschen
    3. Ach so: JvO (definitiv nicht Deine ehemalige Vorgesetzte).

      Löschen
    4. Großartiger Kommentar!
      Und da wären wir nämlich bei DER zentralen Frage:

      "Wenn mein Auto grundsätzlich SO programmiert werden, dass der minimalste Schaden angerichtet wird und nicht ICH als sein Besitzer vorrangig geschützt wird - werde ich mich dann da rein setzen wollen?"

      Aber vermutlich wird es wirklich eher langweilig^^.

      https://pbs.twimg.com/media/CYGMvbmUoAAjvWa.jpg

      Löschen
  4. Ach das altbekannte Trolley Problem, guggste hier:
    https://de.wikipedia.org/wiki/Trolley-Problem

    Und so sieht es aus wenn das ein Zweijaehriger "loest":
    https://www.youtube.com/watch?v=-N_RZJUAQY4

    AntwortenLöschen
    Antworten
    1. Wieder was gelernt, TROLLEYPROBLEM.
      Und das Video seh ich mir an...ich ahne schon, wie das ausgeht...^^

      Löschen
  5. Kann ein noch so hoch entwickeltes Gerät über ethische und moralische Grundsätze verfügen?
    Wenn ja, wer legt die fest? Und wie?
    Was ist überhaupt Moral? Ich bin ja der Meinung, das sich die Moral auch aus Anstand, Takt und Erziehung entwickelt. Die grundlegende Moral ist ja bei jedem Menschen sehr verschieden. Was für den einen noch tragbar ist, kann für den nächsten dann schon das No go sein.
    Wie entscheidest Du Dich jetzt als Fahrer, wenn ein Trupp Kinder auf die Straße rennt?
    Die weitaus meisten Leute würden doch lieber in den Gegenverkehr brettern, oder sich um einen Baum wickeln, als die über den Haufen zu fahren. Wir sind genetisch programmiert, den Nachwuchs zu beschützen.
    Und autonomes Fahren....wird garantiert laaaaaangweilig.
    Schönes WE!
    Sylana

    AntwortenLöschen
    Antworten
    1. Ja, kann es.
      Und Fraage 2 und 3 sind das eigentlich Spannende daran ;-).

      Also ICH bin einer von denen, die sich in der Autonom-Kiste zurücklehnen und das Auto mal machen lassen. Sofern das irgendwann erlaubt wird.
      Was ICH schon an Wochen meines Lebens im Stau gestanden bin, da wäre so was ECHT hilfreich, wenn das Auto von selbst gleiten würde.

      Schönes Wochenende auch Dir!
      Ich hab hier was zu feiern :-D

      Löschen

Hinterlassen Sie an dieser Stelle ruhig Ihre Gedanken - in dem Bewusstsein, dass Sie sich hier in meinem Wohnzimmer befinden und bei mir zu Gast sind.

Ich freue mich über Ihren Kommentar, wenn er dies beherzigt, aber ich lösche ihn, wenn er sein Gastrecht missbraucht.

Und sofern Sie auf Ihren Kommentar eine Antwort von mir haben möchten, erkenne ich das daran, dass er nicht anonym und ohne Namenszeichen abgegeben wurde.