REUTERS/Google/Handout

Elektroautos und ethische Fragen

Die Entscheidung, wer sterben soll

Gastkommentar / von Martin Kolmar / 27.01.2016

Technologische Innovationen wie etwa autonome Autos führen zu komplexen ethischen Konflikten, die bisher implizit, situativ gelöst wurden. Ein Gastkommentar von Martin KolmarProfessor für Volkswirtschaftslehre, insbesondere Mikroökonomie und Public Economics an der Universität St. Gallen und Martin BoomsDirektor der Akademie für Sozialethik und Öffentliche Kultur in Bonn .

Wenn dies ein Krimi wäre (und warum auch nicht, denn es wird Tote geben und um Verantwortung gehen), begänne er vielleicht so: 1967, Oxford, die Philosophin Philippa Foot entwickelt ein Gedankenexperiment, welches die akademische Debatte über den richtigen Maßstab moralischen Handelns für Jahrzehnte befeuern wird, das sogenannte Trolley-Problem: Darf eine außer Kontrolle geratene Straßenbahn, die fünf unbeteiligte Menschen zu überrollen droht, absichtlich so umgeleitet werden, dass nur ein einzelner unschuldiger Mensch zu Tode kommt? Dieses Gedankenexperiment spielte man in unzähligen Varianten durch, um unsere moralischen Intuitionen besser zu verstehen und nach ethisch angemessenen Lösungen zu suchen.

Dann der scharfe Schnitt in die Gegenwart: Unterschiedliche Unternehmen experimentieren mit selbstfahrenden Autos, und diese Technologie wird als „next big thing“ im Individualverkehr angepriesen. Fieberhaft wird an den zahllosen Problemen gearbeitet, die gelöst werden müssen, damit autonomes Fahren möglich wird. Dabei besteht allerdings ein großes Problem, welches zum erwähnten Trolley-Problem führt.

Die Ethik im System

Ein Beispiel: Ein mit fünf Personen besetztes Auto A hat auf einer Küstenstraße einen Ausfall des Bremssystems. Ihm kommt ein mit einer Person besetztes Auto B entgegen. Ein Zusammenstoß ist unvermeidlich, wenn nicht eines der beiden Fahrzeuge über die Klippe fährt. Bleiben beide Fahrzeuge auf der Straße, sterben sechs Menschen, fährt A über die Klippe, sterben fünf, fährt B über die Klippe, stirbt eine Person.

Bisher musste man sich über solche Fragen keine großen Gedanken machen, weil die Entscheidung spontan vor Ort getroffen wird und die Fahrer weder die Informationen haben noch die Zeit, komplexe ethische Probleme zu lösen, wenn sie in eine solche Situation geraten. Dies ändert sich mit dem autonomen Fahren grundlegend. Wie die Autos in der geschilderten Situation reagieren, wird durch Algorithmen tief in der Software entschieden, sodass sich bei der Programmierung der Software die moralische Frage stellt, wie der Konflikt gelöst werden soll: Die Ethik muss vorab in das technische System eingespeist werden.

Aller Voraussicht nach wird autonomes Fahren deutlich sicherer werden als das heutige, nichtautonome Fahren, aber ethisch relevante Konflikte und Dilemmata (wie zum Beispiel durch technisches Versagen) werden nicht verschwinden, und daher stellt sich die Frage, wie eine Gesellschaft mit dieser Situation umgehen will. Intuitiv scheint es klar zu sein, dass wir dabei Algorithmen gestalten sollten, die sich im Konfliktfall für das kleinere Übel entscheiden. Aber wird dieser Maßstab der Problemsituation wirklich immer gerecht? Und worin besteht überhaupt das kleinere Übel? Diese Fragen sind genuin ethischer Natur, so dass ihre Beantwortung nicht den Softwareingenieuren überlassen werden sollte.

Wahrscheinlich werden es viele für richtig halten, im oben geschilderten Fall das Auto mit einem Fahrgast zugunsten der fünf zu opfern – das wäre die utilitaristische Lösung des Problems: Ohne weitere Informationen über die Insassen der Fahrzeuge hieße dies, dass man möglichst wenige Tote wollen sollte. Aber halt: Wir hätten ja prinzipiell viele Informationen, die uns Rückschlüsse über das „Glück“ der Insassen erlauben.

Soziodemografische Daten wie Alter, Geschlecht, Einkommen usw. sind prinzipiell verfügbar und könnten daher in das Kalkül eingebunden werden, so zum Beispiel das Lebensalter. Zurück zum Beispiel: In Fahrzeug B befindet sich eine 18-jährige Frau mit einer Restlebenserwartung von über 60 Jahren, während im Fahrzeug A fünf über 90-jährige Menschen sitzen, deren gesamte Restlebenserwartung 10 Jahre beträgt. Opfern wir Fahrzeug A, so töten wir mehr Menschen, retten aber mehr „quality adjusted life years“.

Die Aufrechnung von Menschenleben

Wenn Sie nun empört „Altersdiskriminierung“ rufen, zeigen Sie nur, dass Sie doch keine Utilitaristin bzw. kein Utilitarist sind. Aber wie kann es sonst gehen? Welche anderen überzeugenden ethischen Maßstäbe haben wir, um eine Entscheidung zu stützen (denn entschieden werden muss ja). Die Aufrechnung von Menschenleben verstößt nicht nur gegen die moralische Intuition vieler Menschen, sondern im Grundsatz auch gegen das Prinzip der Menschenwürde, das gerade auf der Nicht-Kommensurabilität menschlichen Lebens aufbaut.

Diese Position, die auf den Philosophen Immanuel Kant zurückgeht, ist zugleich fester Bestandteil unserer Rechtssysteme und unserer Rechtsprechung: So etwa im Urteil des deutschen Bundesverfassungsgerichtes zum sogenannten Luftsicherungsgesetz 2005. Dabei ging es ebenfalls um eine dem Trolley-Problem analoge ethische Frage: Darf man ein als Terrorwaffe entführtes Passagierflugzeug abschießen, um zu verhindern, dass dieses etwa in ein vollbesetztes Fußballstadion gelenkt wird? Darf man also die wenigen unschuldigen Passagiere im Flugzeug gezielt töten, um die größere Anzahl unschuldiger Menschen im Stadion zu retten? Das Verfassungsgericht hatte in seinem Urteil 2005 eine entsprechende Gesetzesvorlage für verfassungswidrig erklärt, da bei einer derartigen Aufrechnung die betroffenen Passagiere zu bloßen Objekten instrumentalisiert und daher ihrer Menschenwürde beraubt würden.

Aber auch diese Position ist nicht frei von Problemen: Zum einen besteht hier ein Dilemma, weil es in jedem Fall um die Verschonung oder Tötung menschlichen Lebens, also absolut schützenswerter Güter geht. Zum anderen haben Experimente zum Trolley-Problem gezeigt, dass eine solche Position für viele Menschen irgendwann an die Grenzen ihrer moralischen Plausibilität kommt. Dies sieht man, wenn man das Beispiel so verändert, dass man nicht die Wahl zwischen einem und fünf, sondern zwischen einem und hundert, tausend, einer Million oder einer Milliarde Leben hat. Irgendwann würden viele Menschen sagen, es sei richtig, den einen Menschen für die vielen zu opfern. Aber wann kippt die Waage? Darf hier wirklich bei keiner denkbaren Opferrelation verrechnet werden?

Egoistische und altruistische Fahrzeuge

Kommen wir zurück zum Problem des autonomen Fahrens und der Notwendigkeit, ein ethisches Entscheidungsprinzip als Algorithmus in das technische System zu implementieren.

Bisher wurde von uns stillschweigend vorausgesetzt, dass die Technologie selbstfahrender Autos vernetzt ist, das heißt, dass während der Fahrt persönliche Daten (zum Beispiel über Alter, Gesundheit, Beruf) aus den Fahrzeugen an einen Zentralrechner gegeben werden, der dann entscheidet, was zu tun ist. Daraus ergeben sich nicht nur gravierende Fragen im Blick auf Persönlichkeitsrechte und Datenschutz, sondern man mag auch einwenden, dass bei einer derart vernetzten Technologie ein utilitaristisches Kalkül die Freiheitsrechte des Einzelnen auf inakzeptable Art einschränkt.

Und auch vom Standpunkt der Akzeptanz der neuen Technologie stellen sich Fragen. Bin ich bereit, in ein Fahrzeug zu steigen, von dem ich weiß, dass es in einer bestimmten Situation meinen Tod oder meine Verletzung in Kauf nimmt, um damit andere zu retten?

Auch hierfür bieten sich prinzipiell technologische Lösungen an. Heute schon kann man in einigen Autos zwischen einem sportlichen und einem komfortablen Modus wählen. Warum nicht in Zukunft auch die Wahl zwischen einem egoistischen (e-drive) und einem altruistischen (a-drive) Modus? Wählt der Fahrer den E-Modus, so wird das Fahrzeug niemals auf Kosten der Passagiere einen Unfall vermeiden, im A-Modus schon.

Auch diese Lösung bereitet Ihnen Unbehagen? Uns auch. Wichtig ist allein zu sehen, dass technologische Innovationen es erfordern, ethische Konflikte explizit zu lösen, die bisher implizit, situativ gelöst wurden. Dies bereitet uns einerseits Unbehagen, denn wir werden gezwungen, Verantwortung in Bereichen zu übernehmen, um die wir uns bisher nicht zu kümmern brauchten.

Die Notwendigkeit der Entscheidung

Darin liegt für uns andererseits aber auch eine große Chance. Wir können durch solche explizit gewählten Lösungen Todesfälle vermeiden. Und die Tatsache, dass wir eine Entscheidung fällen und systematisch umsetzen müssen, bevor wir selbst betroffen sind, macht es vielleicht einfacher, aus einer unparteilichen Position, unter dem „Schleier des Nichtwissens“, wie dies der Philosoph John Rawls ausgedrückt hat, zu argumentieren. Darüber hinaus werden wir dazu gedrängt, die ethischen Grundlagen, auf denen unsere Gesellschaft fußt, zu reflektieren und zu bestimmen.

Wie wir gesehen haben, kann dies zu ungemütlichen Entscheidungssituationen führen, aber ein rationaler Diskurs – der durchaus auch verschiedene Antworten zulässt – ist allemal besser als ein Wegschauen. Dabei zeigt sich: Das autonome Fahren ist nur ein Beispiel für die Notwendigkeit, in übergreifenden gesellschaftlichen Fragen ethische Entscheidungen zu treffen und dafür Kompetenz aufzubauen.

Ein weiteres Beispiel, das sich in der Frage selbstfahrender Autos bereits andeutet, in seiner Dimension aber weit darüber hinausgeht, ist die zunehmende Digitalisierung der Gesellschaft. Datensammlung im Internet und die damit einhergehende algorithmenbasierte Entwicklung von Persönlichkeitsprofilen, die zum Zwecke eines personalisierten Pricing, personalisierter Werbung und der Auswahl der zur Verfügung gestellten Informationen erhoben werden, sind ein weiteres Großprojekt, welches wir auch hinsichtlich seiner ethischen Dimension lieber heute als morgen anschauen sollten. Aber das wäre ein anderer Krimi.