Autonomes Fahren ist zurzeit in aller Munde. Es ist ein Thema, bei dem viele neue rechtliche Aspekte abgeklärt werden müssen und mit ihnen tauchen neue ethische Fragen auf, die bis anhin keine Gewichtung bei der Produktion von Autos hatten. Es taucht ein neues ethisches Dilemma auf, das uns ans altbekannte Trolley-Dilemma erinnert…
Das Trolley-Dilemma
Sie haben bestimmt schon einmal vom Trolley-Dilemma gehört: Ein Güterzug / Trolley fährt ungebremst auf fünf Menschen zu. Sie haben Zeit den Kurs des Trolleys zu ändern. Ändern Sie die Weiche, fährt der Güterzug auf nur einen Menschen zu. Würden Sie den Kurs ändern? Das Beispiel zielt auf das moralische Dilemma ab, in dem man entscheiden muss, ob man durch aktives Handeln den Tod einer Person verursacht oder durch passives Handeln den Tod mehreren Personen in Kauf nimmt.
Obwohl das Trolley Dilemma schon auf die Philosophin Philippa Foot im Jahr 1967 zurückführt, hat es heute in einem aktuellen Thema eine wichtige Bedeutsamkeit: selbstfahrende Autos.
Was würden Sie tun?
Gehen wir vom folgenden Szenario aus: Sie fahren in einem Auto ohne selbstfahrende Funktionen. Vor Ihnen fährt ein Lastwagen welcher grosse, schwere Objekte geladen hat. Links von Ihnen fährt ein/e Motorradfahrer*in mit einem Helm. Rechts von Ihnen fährt ein/e Motorradfahrer*in ohne Helm. Plötzlich fällt ein Objekt vom Lastwagen herunter und fliegt direkt auf Sie zu. Wie reagieren Sie?
Drei Reaktionen
- Sie fahren in das auf Sie zufliegende Objekt zu; mit oder ohne zu bremsen. Die Wahrscheinlichkeit, dass Sie sich verletzen, ist sehr hoch. Sei das vom Objekt, dass Ihr Auto trifft oder – falls Sie gebremst haben und das Objekt Sie nicht getroffen hat – davon, dass das Auto hinter Ihnen mit ihrem kollidiert.
- Sie reissen das Steuerrad nach links und kollidieren mit dem/r Motorradfahrer*in mit Helm. Die Wahrscheinlichkeit, dass Sie sich verletzen, ist klein, da Sie in einem sichereren Auto sitzen. Die Wahrscheinlichkeit, dass sich der/die Motorradfahrer*in verletzt, ist sehr gross.
- Sie reissen das Steuerrad nach rechts und kollidieren mit dem/r Motorradfahrer*in ohne Helm. Die Wahrscheinlichkeit, dass Sie sich verletzen, ist klein, da Sie in einem sichereren Auto sitzen. Die Wahrscheinlichkeit, dass sich der/die Motorradfahrer*in noch schwerer als mit Helm verletzt, ist relativ hoch.
Egal wie Sie entscheiden – kaum jemand wird im Nachhinein behaupten, Ihre Reaktion sei falsch gewesen. Denn Ihr Handeln ist eine Reaktion auf einen äusseren Reiz. Ihr Reflex entscheidet, wie der Körper in diesem Moment reagiert. Es bleibt keine Zeit für eine rationale Entscheidung im Gehirn. Ein Reflex hat meistens das Ziel, ein Organismus zu schützen. Er dient also dem eigenen Überleben.
Spannend ist, dass die Kultur anscheinend einen Einfluss auf die Entscheidung solcher ethischen Dilemmas haben. Studien konnten durch Umfragen aufzeigen, dass die Resultate unterschiedlich verfielen, abhängig von der Kultur.
Dilemma im autonomen Fahren
Wenn es um die Entwicklung selbstfahrenden Autos geht, müssen solche ethische Fragen im Vorfeld geklärt werden. Hier gilt der Ansatz «es war ein Reflex» nicht. Es stehen ausreichend Zeit und Ressourcen zur Verfügung, um eine rationale Entscheidung zu fällen. Der Anbieter muss hinter der Entscheidung stehen und auch in Verantwortung gezogen werden können. Grundsätzlich muss die Frage geklärt werden, ob das entwickelte Modell den Reflex des Menschen – welcher den Eigenschutz priorisiert – nachahmen soll oder ob das Ziel ist, mittels der künstlichen Intelligenz, den minimalen Personenschaden aller Beteiligten zu erreichen.
Es bleibt spannend
Nach wie vor steht die Entwicklung des autonomen Fahrens meiner Sicht vor einem moralischen Dilemma, das nicht so einfach zu beantworten ist. Es bleibt abzuwarten, wie sich die Entwicklung unter weiterer Berücksichtigung der gesetzgeberischen sowie auch kulturellen Gegebenheiten entfalten wird.