Autonomes Fahren

Sollen Autos selbständig über Leben und Tod entscheiden?

Die Politik hat autonomes Fahren auf den Weg gebracht. Die ethischen Bedenken gegen Autos ohne menschliche Lenkung aber bleiben.

Fahrzeug-Studie ohne Lenkrad und Armaturentafel auf der Internationalen Automobilausstellung IAA 2021 in München © IMAGO / Manfred Segerer

Egal ob Staubsauger-Roboter für die Wohnung oder Mäh-Roboter für den Garten: der „Faktor Mensch“ ist auf dem Rückzug. Weil es unseren Alltag leichter macht, delegieren wir immer mehr Aufgaben an die künstliche Intelligenz. Auch beim Autofahren haben wir uns auf den Weg gemacht in eine Zukunft, die nicht nur vollelektrisch, sondern auch ohne Lenkrad, Gaspedal und Gangschaltung funktionieren könnte.

Im Juli vergangenen Jahres hat der Bundestag ein Gesetz zum autonomen Fahren verabschiedet. Danach können autonome Kraftfahrzeuge in festgelegten Betriebsbereichen fahren. Dazu gehören zum Beispiel Shuttle-Busse oder Autobusse, die auf festgelegten Strecken fahren. Für den Individualverkehr in Städten, auf Landstraßen und Autobahnen sträubt sich die Politik allerdings noch, autonomes Fahren zuzulassen.

Ethische Richtlinien für autonomes Fahren

Es sind vor allem ethische Bedenken, die den Durchbruch bislang verhindert haben. Und die Wissenschaftler wie Andreas Riener von der Technischen Hochschule Ingolstadt (THI) auf Trab halten. Bereits vor einigen Jahren wurde eine Ethik-Kommission für autonomes Fahren eingerichtet, erklärt der Professor, der an der THI im Bereich von Mensch-Maschine-Schnittstellen forscht. Und die hat klar formuliert: der Schutz eines Menschenlebens geht vor Sachschaden. Wenn also bei einem drohenden Unfall das Auto nicht mehr rechtzeitig bremsen kann und die Wahl hat, auf eine Sache oder einen Menschen zuzusteuern, muss das autonome System so programmiert sein, dass es gegen die Sache fährt.

Die wesentlich kniffligere ethische Frage stellt sich allerdings, wenn es bei einem Unfall ausschließlich um Menschen geht. Links steht ein Kind, rechts ein alter Mensch. Welcher Algorithmus, also welche Handlungsvorschrift ist für diesen Fall zu programmieren? Was ist der größere Schaden? Soll man das Kind bevorzugen, weil es das ganze Leben noch vor sich hat, oder ist der ältere Mensch mehr wert aufgrund seiner Lebenserfahrung, die der Gesellschaft zugute kommt? Hierzu stellen die Ethik-Experten fest: „Eine Aufrechnung nach Alter, Geschlecht, Religion, Einkommen oder Gruppengröße darf es nicht geben“, so Riener.

Zufallsalgorithmus als Lösungsansatz

Wie könnte dann aber eine gerechte Lösung aussehen, wenn ein autonomes Auto über Leben und Tod entscheiden muss? Professor Riener sieht im Zufallsalgorithmus die fairste Lösung. Der würde jedem am Verkehr beteiligten Menschen die gleiche Wahrscheinlichkeit geben, dass er irgendwann einmal involviert ist oder auch nicht. Ob sich dieser Vorschlag durchsetzen wird, hängt laut Riener in erster Linie davon ab, ob er von der Gesellschaft angenommen wird. Wenn es um Sicherheit geht, akzeptierten Menschen, dass es jedes Jahr tausende Verkehrsopfer gibt, die durch menschliches Fehlverhalten zustande kommen. Aber würde man es akzeptieren, dass technische Entscheidungen zu Verkehrsopfern führen? Sicher werde es dazu noch eine lange, intensive Debatte geben, so Riener.

Auto der Zukunft eher automatisiert als autonom

Insgesamt würden die ethischen Bedenken den Prozess der Automatisierung aber nicht aufhalten. Es werde in den kommenden Jahrzehnten noch manuelle Fahrzeuge geben, aber zunehmend auch Fahrzeuge, die immer mehr Technik verbaut haben und damit automatisierte Unterstützung bieten. „Vollautomatisiertes Fahren in 30 Jahren auf breiter Ebene sehe ich persönlich nicht“, prognostiziert Riener.


Der Autor
Paul Hasel
Radio-Redaktion
p.hasel@st-michaelsbund.de