24.03.2015, 10:19 Uhr | 0 |

Ethische Fragen im Verkehr Autonom fahrende Autos im Dilemma: Welchen Unfall vermeiden?

Wenn die Erwartungen der Autoindustrie aufgehen, dann wird es in 20 Jahren rund 20 Millionen Autos geben, die vollautomatisiert fahren können. Doch wie entscheidet die Technik, wenn ein Unfall droht? Soll die Kollision mit Fußgängern und Radfahrern stärker vermieden werden als mit einem anderen Auto?

Abendverkehr in der Regent Street in London
Á

Abendverkehr in der Regent Street in London: Forscher stehen vor dem Dilemma, dass autonom fahrende Autos bei einem Unfall Entscheidungen treffen müssen, die Menschenleben kosten können.

Foto: Soeren Stache/dpa

In Großbritannien beschäftigen sich besonders die Versicherer mit der Frage, wie die Steuerungstechnik im Fall eines drohendes Unfalls entscheiden soll. Ein Beispiel: Ein herkömmlich gesteuertes Auto achtet nicht auf die Vorfahrt, sondern biegt unvermittelt von der Seitestraße in die Hauptstraße ein. Der Zentralcomputer des fahrerlosen Auto ist in Sekundenbruchteilen mit der Alternative konfrontiert, trotz heftigen Bremsens voll in das einbiegende Auto zu krachen oder nach rechts auszuweichen, wo sich zwei Radfahrer zum Abbiegen eingeordnet haben.

Ethisches Dilemma: Crash mit Radfahrer oder Fußgänger vermeiden?

Im Prinzip gilt das gleiche Szenario für das fahrerlose Auto. Der große Unterschied zur Lösung dieses Dilemmas bestelt allerdings darin, dass sich im ersten Fall ein Mensch mit diesem Dilemma auseinandersetzen muss, im zweiten Fall dagegen ist der zentrale Bordcomputer damit konfrontiert. Das wirft zwei Fragen auf: Kennt der Computer überhaupt ein ethisches Problem? Und: Ist ein automobiler Computer in der Lage, ethischen Überlegungen bei einer Entscheidung Rechnung zu tragen?

Mit diesen Fragen, nämlich wie sich der Computer im Fall eines Dilemmas entscheiden soll, beschäftigen derzeit Forscher zahlreicher Universitäten, von der Stanford University über die California Polytechnic State Unversity in den USA bis zur TU Darmstadt. Gemein ist ihnen, dass sie nur ungern über ihre Arbeiten auf diesem Gebiet sprechen.

Offenbar gehen die Forscher im Einklang mit der Automobilindustrie davon aus, dass es unmöglich ist, in jeden Autocomputer eine lange Liste zu programmieren, die Fall für Fall dem Rechner vorgibt, wie jeweils im Einzelnen im Krisenfall zu entscheiden ist.

Ein Auto liegt am Freitag (27.08.2010) nach einem Unfall in der Innenstadt von Darmstadt vor einer Pizzeria. Der 21 Jahre alte Autofahrer war an einer Kreuzung mit dem Auto eines 46-Jährigen zusammengeprallt, überschlug sich und landete auf vor einer Pizzeria auf dem Dach. Der Fahrer wurde leicht verletzt. Foto:Jürgen Mahnke dpa/lhe +++(c) dpa - Bildfunk+++
Á

Ein umgekipptes Auto im Zelt einer Pizzeria in Darmstadt: Wie soll sich die Steuerungstechnik autonom fahrender Autos im Fall eines Unfalls mit verschiedenen Handlungsmöglichkeiten entscheiden? Ist der Crash mit einem Auto der Kollision mit Fußgängern vorzuziehen? Damit beschäftigen sich derzeit Forscher in Großbritannien und Deutschland.

Foto: Jürgen Mahnke/dpa

Die Forscher müssen Handlungsszenarien entwickeln für Fälle wie, dass der Auto-PC zwischen einem Unfall mit einem jungen oder alten Menschen, einer Mutter mit Kinderwagen oder einem Radfahrer entscheiden muss. Dabei gilt als nicht vertretbar, die Sicherheit der Insassen des fahrerlosen Autos grundsätzlich über jene anderer Verkehrsteilnehmer zu stellen.

Verhaltensmuster für jede Art Unfall gelten als unmöglich

Aus der Sicht der Versicherer und Regierungen geht es allerdings neben dem moralisch-ethischen Problem „richtiger“ Entscheidungen zugleich um die juristischen Auseinandersetzungen, die jedem Unfall mit einem autonom gesteuerten Auto folgen dürften.

Chris Gerdes, der Leiter des Center for Automotive Research an der Stanford Universität, sieht die besondere Herausforderung für die Techniker darin, dass sich die Menschen als Autofahrer in Krisensituationen unterschiedlich verhalten und entscheiden. Dabei werden vielfach bewusst einzelne Verkehrsvorschriften außer Acht gelassen.

Wenn sich das Einbiegen in eine Einbahnstraße in verkehrter Richtung als einzige Möglichkeit anbietet, um einen Unfall zu vermeiden, dann werden viele Fahrer so handeln. Der bisherige Bordcomputer eines fahrerlosen Autos wird sich aber nicht dazu entschließen. Die Herausforderung an die Entwicklung der Software liegt also darin, in die automobile Software eine Art “menschlicher Elastizität in der Entscheidungsfindung und Ausführung dieser Entscheidungen“ zu integrieren, so Gerdes im Gespräch mit Ingenieur.de.

Ob das überhaupt möglich sein wird, ist offen. Als Kompromiss plädieren Einzelne dafür, dem Bordcomputer eine beschränkte Anzahl von Zufallsentscheidungen mitzugeben. Dass dies in Krisensituationen im Verkehr eine gute Entscheidungsoption ist, ist jedoch umstritten.

Schon in wenigen Jahren sind Normen für autonomes Fahren notwendig

Da spätestens in fünf Jahren die ersten fahrerlosen Autos auf den Markt kommen, muss bis dahin die neue „ethische Software“ weitgehend verfügbar sein. Schon jetzt fahren fahrerlose Autos im Testbetrieb. Darauf drängen die großen Versicherer beispielsweise in Großbritannien wie auch in der Schweiz sowie die britische Regierung. Allerdings ist es fraglich, ob es dann schon verbindliche Normen geben wird, die die neue Software für die Musterzulassung eigentlich erfüllen müsste. 

Anzeige
Von Peter Odrich
Zur StartseiteZur Startseite
schlagworte: 
kommentare

Aktuell wurden noch keine Kommentare zu diesem Artikel abgegeben. Loggen Sie ich ein oder melden Sie sich neu an, wenn Sie noch keine Zugangsdaten haben
> Zum Login     > Neu anmelden