Hej Ethiker,
Alles nachfolgend Geschriebene soll lediglich zum Nachdenken anregen. Ich stelle Fragen und kann keine Antworten liefern. Und keine Frage oder Aussage ist in irgend einer Weise gegen jemanden gerichtet. Ich sage dies vorsorglich, da dieses Thema sehr schnell abdriften und hitzig werden kann. Dies sollte es nicht, es ist zu wichtig.
Keine Sorge, ich habe ja bereits in einem anderen Posting geschrieben, dass ich in der Beziehunge nicht glaube, den Stein des Weisen gefunden zu haben und die Antwort zu kennen.
Aber zwei, die sich darin einig sind, können IMHO einem Idealfall schon nahe kommen, zehn wie wir noch näher, immer vorausgesetzt, die Bereitschaft Kompromisse zu schließen.
Dann sind gegensätzliche Meinung beim Finden eines Ideals sogar nützlich.
Aber welche Entscheidung programmieren wir der Technik?
Ich würde diese Fragen pragmatisch beantworten:
1.) möglichst Tote vermeiden, auch wenn dadurch voraussichtlich mehr Menschen (geringen) Schaden nehmen.
2.) Anzahl der Opfer verringern
3.) Menschen mit statistisch längerer Lebenserwartung (Kinder) bevorzugt schützen
So oder ähnlich würde wahrscheinlich "die Mehrheit" nach ganz kurzem Nachdenken entscheiden. Und die Entscheidung ist falsch. Das kann in dieser Absolutheit gesagt werden. Die Entscheidung ist pragmatisch und eine Form von Pragmatismus ist in dieser Frage auch gefordert, aber sie ist zu einfach, weshalb sie nur falsch sein kann.
Ist sie das? Oder ist sie nur noch nicht nahe genug am ideal?
Ich gehe ja erst mal von zwei Voraussetzungen aus:
1.) der Fall tritt dank der Überlegenheit der Technik beim Verhindern von Unfälle ohnehin nur sehr selten ein.
2.) Es ist eine Entscheidung, in einer Situation, wo es ein richtig nicht geben kann. Man steckt ohnehin bereits in einer lose-lose-Situation.
Man könnte dem Fahrzeug nun einfach keine Entscheidungsgrundlage mitgeben und den zufal entscheiden lassen (z. B. es werden keine Ausweichmanöver gestartet, das Auto bremst einfach so stark wie möglich).
Wenn man sich etwas besseres, als "den Zufall" wünscht, muss man (wie du richtigerweise erwähnt hast) definieren, was "besser" ist und kann das dann umsetzen, ohne dass es dadurch richtig würde. Die Entscheidung müsste aber nciht mehr der Mensch treffen. Bei deinen Betrachtungen lässt du nämlich außen vor, dass ein Mensch, der so eine Entscheidung trifft, für den Rest seines Lebens damit umgehen muss.
Meiner Meinung nach grausam! Gerade in Kombination mit einem autark fahrenden Wagen. Er wird sich wohl immer die Frage stellen: hätte ich den Unfall komplett verhindern können, wenn ich z. B. das Steuer früher übernommen hätte?
AllerWahrscheinlichkeit nicht - oder er hätte (auch nur aller Wahrscheinlichkeit nach) dafür früher bereits mehr Unfälle verursacht, als die Elektronik. So was wird er ausblenden, weil er nur das geschehene Unglück wahrnimmt, nicht das verhinderte Unglück!
Und nur um die geht es hier ja eigentlich (was man leicht vergisst, weil sich diese Diskussion nun irgendwie an den extrem wenigen Fällen festbeißt, in denen es dann doch mal zum Unfall kommt)...
Offensichtlich weil sich hier die interessantesten Fragen eröffnen.
Begründung:
Ungefähr so. Details lassen sich immer verhandeln.
Die Details sind die wirkliche Entscheidung. Nicht das grobe Ganze. Bei dieser Fragestellung handelt es sich um klassisches Dilemma bzw. Tragik im ursprünglichen Wortsinn: Egal welche Entscheidung wir treffen, sie wird falsch sein.
Eben - ist es darum nicht irgendwo auch wurscht, wenn trotz allen Bemühens einzelne in derselben Situation anders entschieden hätten. Solche Algorytmen lassen sich ja anpassen. So brutal es klingen mag, so vernünftig ist es hier bispielsweise A/B-Tests einzusetzen.
Beispiel: Was ist besser?
Zu 1: "1 Toter und 0 Verletzte" vs. "0 Tote und 10 Schwerverletzte, welche ihr Leben lang lediglich vegetieren"
Das lässt sich ja vor der Kollision nicht abschätzen.
Gemeinwohl vor dem Wohl des Einzelnen beantwortet diese Frage für mich...
Ich denke nicht, dass dies die Frage für dich beantwortet. Nicht, weil du doof bist, aber weil du dir der Tragweite noch nicht bewusst bist. Bzw. weißt du wahrscheinlich nur noch nicht, dass dies die Frage für dich nicht beantwortet.
Doch, für mich persönlich ist die Frage sehr einfach beantwortet. Ich könnte auch nach einem Mal drüber schlafen mit meinem gestrigen Vorschlag sehr gut leben. Mir ist vollkommen bewusst, dass ich zugunsten anderer durch meinen eigenen Vorschlag zum Krüppel gefahren werden könnte. Ich bin aber bereit, dieses Risiko zu tragen, weil dahinter der Gedanke steht, dass die Gesamtzahl der Opfer gesenkt wird und daher für alle (mich eingeschlossen) die Wahrscheinlichkeit sinkt, überhaupt Opfer zu werden. Es ist ja sehr viel wahrscheinlicher, Teil der größeren, geschützten Gruppe zu sein, als der eine, der im Auto sitzt.
Würde ausschließlich oder überwiegend das (noch zu definierende!) Gemeinwohl zählen, würde die Welt in längst vergangen geglaubte Zeiten zurück verfallen. Dann müsste also aus evolutionärer Sicht the fittest geschützt werden.
Aus evolutionärer Sicht schon - aber die hat bisher noch niemand gefordert. Es ging bisher nur darum, zu erreichen, dass möglichst wenige Menschen schaden nehmen. Nicht darum eine Wahl zu treffen (mal abgesehen vom Alter, wenn das so schnell (in den dafür verfügbaren Millisekunden) überhaupt ist. Vielleicht könnte man niedrige Menschen mehr schützen als hohe Menschen, weil die meisten Kinder kleiner als Erwachsene sind. Dann wären Kleinwüchsige bevorteilt. Kann ich auch mit leben!
Ernsthaft? "Behinderte Menschen" sind weniger "wertig" als andere?
Jetzt übertreibst du aber. So was habe ich nciht gefordert und werde ich auch nicht. - Im Gegenteil bekäme ein Blinder, der ein Auto "übersieht" erst mal eine höhere Überlöebenschance, weil der Unfall sehr wahrscheinlich vermieden würde. Kommt es doch zum Unfall, findet eine absolute Gleichbehandlung statt, die nicht berücksichtigt, ob jemand behindert oder Ausländer ist: allein die Zahl (und eventuell die Körpergröße) der Opfer zählt.
Schwarze mehr oder weniger als Weiße? Braune mehr oder weniger als Grüne? Was ist mit pinkblauem Streifenmuster? Fragen wie diese ("Politiker wertvoller als Pöbel") nannte @Rechtsstaatsvermisser bereits. Und wie wird entschieden, welcher Mensch wertvoller als ein anderer Mensch ist? Wer entscheidet dies?
Und all das soll ein Automat in den Millisekunden vor dem Unfall herausfinden und in seine Entscheidung einbeziehen können? Das dürfte dann doch wohl noch Zukunftsmusik sein.
Aber um auch hier mal eine mögliche Antwort zu nennen. Solche Entscheidungen entstehen ja zumindest in der Demokratie unter dem Druck wiedergewählt werden zu wollen. Insofern werden wir wohl alle mit dem Willen der Merheit - egal ob dieser richtig oder falsch ist - leben müssen.
Weiter gedacht (s 3): Alle Autos mähen hauptsächlich Ältere Leute um. Bei n-->unendlich leben nur noch die jüngsten Kinder. Und jetzt? Gut, schlecht, neutral?
Irrelevant. so viele Ufälle wird es gar nicht mehr geben, damit dieses Szenario eintritt. Im Gegenteil würden erst durch die Automatisierung Menschen, die heute frühzeitig ihr Leben im Verkehr lassen, in "meiner" Zulunft das Greisenalter erreichen!
Diese sehr vereinfachten Fragen sind nicht neu. Sie stellten sich aller Wahrscheinlichkeit schon vor Urzeiten. Bisher konnte darauf vertraut werden, dass der Mensch zwar viele Fehler macht, aber immerhin ein Allrounder ist und zumindest eine Entscheidung trifft: War die Entscheidung dann falsch, hat er eben sein bestes getan und kann nun auch nicht immer die richtige Entscheidung treffen. Oder er war eben Schuld. Das Rechtsprinzip Selbstschutz vor Hilfe ist zwar legitim, spricht aber ggf auch gegen eine Theorie des Gemeinwohls.
Leider...
Beispiel: Ein Haus brennt. Am Eingang eines Zimmers sitzen 5 Greise. Hinten im Zimmer sieht der Feuermann zusätzlich ein neugeborenes Kind. Alle wird er nicht retten können. Was tut er?
Einspruch!
1.) Diese Situation hat nichts mit autonomen Fahrzeugen zu tun.
2.) Ein Feuerwehrmann kommt selten allein.
Er handelt irrational und dennoch hoffentlich und wahrscheinlich der Situation angemessen. Aber wie konkret?
Wäre doch prima, wenn er immer gleich handeln würde und man nach einer Weile durch A/B-Tests herausfinden könnte, wie er handeln müsste, damit immer weniger Mesnchen zu Schaden kommen. Und man ihn dazu bringen könnte, das dann auch jedesmal genauso zu tun.
Ist übrigens das, was man schon immer von Soldaten verlangt: Einem Befehl zu gehorchen, auch wenn es fast sicher ist, dabei umzukommen, damit "die Schlacht" oder "das Vaterland" (und damit womöglich die eigenen Familie) gerettet wird.
Und dieses Dilemma wird größer, weil diese Entscheidungen jetzt in aller Ruhe und nicht in einer vorliegenden Extremsituation beantwortet werden müssen. Computer machen i.a. keine Fehler. Sie tun das, was ihnen gesagt wird. Und das muss durchdacht sein. In unzähligen Aspekten.
Nein, niemand kann solche Fragen für alle beantworten, dafür sind wir zu unterschiedlich. Also kann man sich wohl nur auf etwas einigen, was allen zugute kommt: so wenige Opfer wie möglich.
Es bleibt also eigentlich nur ein Aspekt.
Ein Problem zu verkomplizieren führt selten zu einer besseren Antwort.
Ich könnte lange weiter philosophieren, belasse es hier aber der Leserschaft, sich selbst weiter darüber Gedanken zu machen. Bevor Entscheidungen getroffen werden können, sollte zuerst jeder selbst in sich gehen und überlegen, was das beste ist. Und Evtl feststellen dass es das nicht gibt. Und dann darüber nachdenken, was man machen sollte.
Aber genau das habe ich ja getan ;-)
Zum Abschluss als Bsp. ein Linktip: Die Moral Machine (MIT Media Lab) ist nicht nur für Lehrer interessant, die Schüler auf diese tragische Situation aufmerksam machen möchten.
Danke für den Tipp!
Marc