Laut Gesetz dürfen in Deutschland hoch- oder vollautomatisierte Fahrsysteme das Steuern oder Bremsen selbstständig übernehmen. Foto: dpa

Was bei den Diskussionen über das autonome Fahren immer übersehen wird: Keiner verhält sich ethisch, wenn es um das eigene Leben geht, sagt unsere Autorin. Eine Streitschrift.

Stuttgart - Es vergeht kaum ein Tag, an dem nicht ein neues ethisches Dilemma beschrieben wird, das autonome Autos mit sich bringen: Sollen sie eher ein Kind oder eher eine alte Frau überfahren, wenn ein Fahrzeug nicht bremsen kann? Sollen zwei Mütter gerettet, dafür aber der Insasse des autonomen Fahrzeugs geopfert werden? Und wenn es drei Insassen sind und zwei davon Kinder? Oder eine Oma?

Es gibt groß angelegte Studien wie die „Moral Machine“ des Media Lab des Massachusetts Institute of Technology (MIT), in denen solche Szenarien simuliert werden und der Internetnutzer dann entscheiden soll: Opfere ich mich und meine Familie für ein Rentnerpaar und eine Katze? Eine Schwangere, ein Hund, ein Baby versus zwei Senioren, einen Arzt, eine junge Frau? Ein Reicher und ein Sportler versus eine Schwangere und ein Kind?

Autos, die einem ethische Entscheidungen abnehmen, findet jeder gut – kauft sie aber nicht

Es erscheint makaber, solche Entscheidungen treffen zu müssen. Doch Forscher behaupten, das sei nun nötig, um herauszubekommen, wie Menschen in einem solchen Dilemma entscheiden würden, um autonome Fahrzeuge entsprechend zu programmieren. Aber das ist falsch. Menschen beurteilen solche konstruierten Situationen ganz anders, als sie im echten Leben handeln würden. Studien zeigen klar, dass Fahrzeuge, die stets zum Schaden des Insassen entscheiden, zwar positiv bewertet werden – aber nie gekauft werden würden. Schlicht, weil einem letztendlich das eigene Leben wichtiger ist. Das kann man niemandem vorwerfen: Für eine solche konsequent utilitaristische Lösung müssten wir das Prinzip des Individuums aufgeben, das in unserer Kultur aus gutem Grund tief verankert ist. Mittels solcher Experimente kann man also autonome Fahrzeuge entwickeln, die zwar das Gemeinwohl im Blick haben – aber die keiner haben will.

Simulationen gehen völlig an der Realität vorbei

Dies alles missachtend haben Forscher der Uni Osnabrück kürzlich erneut behauptet, dass dieser sogenannte Value-of-life-Ansatz das ist, was Menschen wollen und was von daher in autonome Fahrzeuge implementiert werden soll. Mit Value of life ist gemeint, dass der Wert des Lebens berechnet und danach entschieden wird, wer geopfert wird. Ihre Behauptung stützten die Wissenschaftler auf eine Studie, in der sie 105 Testpersonen per Virtual Reality (VR) über eine Straße fahren ließen. Aus einem Nebel traten dann verschiedene Hindernisse auf, denen sie nicht ausweichen konnten: Menschen unterschiedlichen Geschlechts, Tiere, unbelebte Dinge. Den Probanden blieben entweder eine oder vier Sekunden Zeit bis zum Unfall. Die Forscher beobachteten, wie die Fahrer reagierten, und verglichen diese Daten mit Vorhersagen, die auf verschiedenen Modellen basierten. Die Forscher ziehen aus ihren Tests den Schluss, dass ein einfaches Modell basierend auf einem Value-of-life-Ansatz den tatsächlichen Reaktionen von Fahrern recht nahe kommt und daher eine gute Grundlage für die Entwicklung entsprechender Algorithmen sein könne.

Doch Simulationen sind für solche Fragen nicht geeignet: Denn die Testpersonen sind sich ja bewusst, dass es für sie kein Risiko gibt. Die Realität wird simuliert. Im echten Leben dagegen verhalten sich Menschen nicht ethisch, wenn es um Unfälle geht. Der KI-Professor Raúl Rojas von der FU Berlin zeigt das am Beispiel von notlandenden Flugzeugen: Die Piloten wählen dabei häufig die Autobahn – und nicht etwa den Acker. Es geht den Piloten ganz offensichtlich mehr um das eigene Leben als um das unbeteiligter Autofahrer. Für solche Entscheidungen haben die Piloten auch nicht nur wenige Sekunden Zeit, sondern mehrere Minuten: Es sind also durchaus bewusste Entscheidungen.

Die Ethikkommission drückt sich um die wichtigen Fragen

Kritiker verweisen immer wieder darauf, dass solche Dilemmata konstruiert sind: Unfallsituationen, in denen entschieden werden muss, ob man eher ein Kind oder einen alten Menschen im Falle eines Unfalls opfern würde, seien mehr als unwahrscheinlich. Nicht nur die Tatsache, dass ein autonomes Auto nicht mehr stoppen kann, sondern auch, dass es überhaupt den Unterschied zwischen einer Oma und einem Kind erkennt. Die Ethikkommission, die im Auftrag des Bundesverkehrsministeriums über das autonome Fahren beraten hat, stellt sich auf den Standpunkt, es dürfe keine Klassifizierung von Personen geben. Situationen, in denen es um „Leben gegen Leben“ geht, seien „ethisch nicht zweifelsfrei programmierbar“.

Die Frage, die unbestritten sehr viel häufiger vorkommen wird, ist: Opfert das Auto seine Insassen, um das Leben Unbeteiligter zu retten? Auch hier versagt die Ethikkommission. Sie schreibt an einer Stelle ihres Berichts, dass die Verursacher von Mobilitätsrisiken keine Unbeteiligten opfern dürfen. An anderer Stelle verweist sie darauf, dass es „kritisch zu betrachten sei“, wenn ein Fahrzeug seinen Fahrer opfert – selbst wenn dafür Unbeteiligte gerettet werden. Demnach soll der Insasse bevorzugt sterben. Schließlich ist das Risiko erst durch seine Fortbewegungsart entstanden. Andererseits soll er das gerade nicht, denn es stellt das Konzept des Individuums infrage. Zumindest eines ist klar geworden: Es gibt keine Lösung.

Forscher sollen nicht verschleiern, dass es für gewisse Dilemmata keine Lösung gibt

Unbestritten ist, dass automatische Systeme eines Tages sicherer fahren werden als Menschen. Ebenso, dass die Unfallzahlen reduziert werden. Es steht aber auch außer Frage, dass sich Menschen in aller Regel nicht freiwillig opfern: Sobald eine künstliche Intelligenz eine Entscheidung trifft, die uns nicht passt, werden wir rebellieren. Und das, selbst wenn wir akzeptieren, dass sie logisch denkt, zudem keinen Fehler gemacht hat und obendrein das Beste für alle will. Forscher sollten sich nicht dafür hergeben, so zu tun, als lasse sich das durch noch so raffinierte Simulationen lösen. Sie sollten nicht verschleiern, dass es hier keine Lösung gibt. Das zu ignorieren ist gefährlich, denn dann setzt sich am Ende das Recht des Stärkeren durch. In diesem Fall ist das derjenige, der den Hacker bezahlen kann, der die Software so ändert, dass Insassen stets geschützt sind.