Autonom steuernde Fahrzeuge sollten im Notfall besser reagieren als ein Mensch. Was aber, wenn ein Unfall trotz überlegener Reaktionszeit unvermeidbar ist?
Technisch und juristisch ist beim autonomen Fahren noch einiges zu klären. Auch moralische Fragen sind noch offen: Wie zum Beispiel soll sich ein Robotermobil bei nicht abzuwendenden Unfällen verhalten? Forscher der TU München haben nun einen Algorithmus entwickelt, der die Frage ethisch korrekt beantworten soll.
Während der Mensch in den Sekunden vor dem Aufprall kaum eine Chance zum bewussten Reagieren hat, kann das Roboterauto in dieser Zeit Millionen Berechnungen durchführen – und aus mehreren Handlungsoptionen wählen. Rast es lieber vor die Wand und opfert seine Insassen oder nimmt es den Weg in die Menschenmenge? Kollidiert es mit dem dicken SUV oder dem für ihn ungefährlicheren Kleinwagen? Rammt es eher den Radfahrer mit oder den ohne Helm aus dem Sattel? Um das zu entscheiden, braucht die Maschine eine Art moralischen Kodex. Und den muss der Mensch ihr einprogrammieren.
Einheitliche Vorgaben für alle Hersteller gefordert
Die Ethik von Roboterautos beschäftigt zunehmend auch die Autohersteller: Wie soll das vollautomatisiert fahrende Auto der Zukunft in derartigen Dilemma-Situationen entscheiden? Wenn trotz mehrerer Handlungsalternativen immer Menschenleben oder zumindest Sachwerte auf dem Spiel stehen? Schon 2017 sprachen sich 86 Prozent der befragten Branchenvertreter bei einer Umfrage des IT-Verbands Bitkom für die Schaffung eines unabhängigen Ethikrates ein, der die Regel für das Verhalten bei Unfällen festlegt. Besetzt werden sollte das Gremium mit Philosophen, Juristen, Technikern und Politikern.
Die Alternative, dass jeder einzelne Autohersteller seine eigenen Regeln anwendet, galt schon damals als gefährlich. Dann nämlich würde die Programmierung des Fahrzeugs zu einem wichtigen Punkt bei der Kaufentscheidung. Und wer würde ein Auto kaufen wollen, dass bei einem unvermeidbaren Unfall im Zweifel seinen Fahrer gefährdet, um andere Schäden zu vermeiden? Die Folge könnte ein rigoroser Egoismus der Algorithmen sein.
Dieser „Charakterschwäche“ soll der nun in der Zeitschrift „Nature Machine Intelligence“ veröffentlichte ethische Algorithmus der Münchner Forschergruppe nicht unterliegen. Dafür hat sie fünf Faktoren bestimmt, die bei der Entscheidungsfindung eine Rolle spielen sollen:
das akzeptable Maximalrisiko eines Manövers,
den besonderen Schutz der gegebenenfalls am schlimmsten Betroffenen,
die Gleichbehandlung aller Menschen,
die Minimierung des Gesamtrisikos und
die Eigenverantwortung der Verkehrsteilnehmer.
So soll das Risiko künftig fair zwischen autonomen Fahrzeugen, normalen Autos, Fußgängern und Zweiradfahrern verteilt werden.
Auto müsste zwischen unerwünschten Folgen abwägen
Bis jetzt gibt es diesen Algorithmus nur im Labor und nicht auf der Straße. Allerdings existieren auch noch keine komplett autonom fahrenden Serienautos. Doch die Technik schreitet voran, langsam, aber stetig. Bereits heute können Pkw ohne menschlichen Eingriff Bremsmanöver durchführen, die Fahrtrichtung ändern (assistierter Modus) oder im Stau mitschwimmen (automatisierter Modus). Bis zum Ende des Jahrzehnts soll der Computer dem menschlichen Fahrer einen immer größeren Teil seiner Aufgaben abnehmen.
Erste Autos wie der Mercedes EQS fahren zumindest unter bestimmten Bedingungen vollständig automatisiert, während der Mensch hinterm Steuer sich anderen Tätigkeiten widmen darf. Dazu dürften auch in Deutschland mittelfristig Roboauto-Fahrdienste ihren Serienbetrieb starten und Passagiere ganz ohne Fahrer, Lenkrad oder Pedalerie durch die Gegend chauffieren.
Die autonomen Autos sollen durch eine vorausschauende und eher defensive Fahrweise kritische Entscheidungen nach Möglichkeit vermeiden. In komplexeren Verkehrssituationen sind mittelfristig aber Situationen denkbar, in denen das nicht mehr ausreicht. Dann könnte das Auto gezwungen sein, zwischen mehreren Handlungen mit unerwünschten Folgen abzuwägen. Und – wie eingangs erwähnt – zwischen der Kollision mit einem Laster und einem Kleinwagen entscheiden.
Widersprüche zwischen den Kriterien
Dass die Software der Münchner Forscher bei der Bewertung solcher Situationen grundsätzlich taugt, haben die Wissenschaftler nach eigenen Angaben in Tausenden Simulationen bestätigt. Trotzdem wird das System immer an Grenzen stoßen. So kann es bei der Bewertung der Eigenverantwortung anderer Verkehrsteilnehmer beispielsweise nicht unterscheiden, ob jemand aus Unachtsamkeit auf die Straße tritt oder ob er gestoßen wird.
Claudia Brändle vom Institut für Technikfolgenabschätzung am Karlsruher Institut für Technologie (KIT) bewertet die Berücksichtigung „persönlicher Verantwortung“ generell zurückhaltend: Es sei problematisch, „persönliche Verantwortung“ verschiedener Akteure in einen Algorithmus einzubeziehen, „vor allem wenn die Konsequenzen für Fehlverhalten so schwerwiegend ausfallen können.“
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel Communications Group GmbH & Co. KG, Max-Planckstr. 7-9, 97082 Würzburg einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von redaktionellen Newslettern nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung, Abschnitt Redaktionelle Newsletter.
Auch Ortwin Renn, wissenschaftlicher Direktor des Research Institute for Sustainability (RIFS) in Potsdam, sieht noch offene Fragen. So könnten Widersprüche zwischen den fünf Kriterien auftreten. „Man stelle sich vor, links stehen zwei junge kraftstrotzende Männer und rechts eine gebrechliche ältere Frau. Zielt der Fahrer auf die ältere Frau, nimmt er in Kauf, dass diese Frau bei einem Aufprall wesentlich mehr Verletzungen davontragen wird als die beiden Männer, demnach wäre das zweite Kriterium der Priorität für die höchst verwundbare Person verletzt. Gleichzeitig würde aber dadurch das Gesamtrisiko verringert, weil jetzt eine Person statt zwei zu Schaden kommen würde. Damit wäre das erste Kriterium erfüllt. Welches der beiden Kriterien hat dann Vorrang?“
Auch individuell konfigurierbare Einstellungen denkbar
Den Münchner Forschern sind solche Probleme bewusst. Wie genau diese Fragen jeweils gewichtet werden sollen, muss ihrer Ansicht nach gesellschaftlich diskutiert werden. Eine Position, die auch große Teile der Autoindustrie vertreten. Sie spricht sich bei der Aufstellung der Verhaltensregeln für einen breiten gesellschaftlichen Konsens aus. Andere Hersteller sehen sich selbst in der Pflicht, da die Verantwortlichkeit für das Produkt bei ihnen liegt. Ein dritter Akteur könnte der Kunde selbst sein, der durch sein Kaufverhalten Einfluss nimmt. Denkbar ist überdies, dass der Kunde die Einstellungen der Maschine in einem abgesteckten Rahmen selbst verändern kann.
Wie auch immer es weitergeht: Klar ist, dass Autos schon heute moralische Entscheidungen treffen könnten. Man denke zum Beispiel an Kamerasysteme mit Bilderkennung, die zwischen Menschen und Tieren unterscheiden. Noch machen sie ihre Fahrstrategie nicht davon abhängig, wer vor der Motorhaube auftaucht – technisch wäre es ohne weiteres möglich, für das eine Lebewesen auszuweichen, für das andere nicht. Ein paar wichtige Fragen sind also noch zu klären, bevor Roboterautos in großer Zahl die Straßen bevölkern können.
Klar ist aber, dass es im Einzelfall nicht immer eine moralisch perfekte Lösung geben kann. Denn die Künstliche Intelligenz ist limitiert, nicht nur in der Version der Münchner Forscher: „Man muss wissen, auch dieser Algorithmus kann – genau wie andere – Risiken für Schäden lediglich minimieren, aber nicht ausschließen“, kennzeichnet Brändle die Grenzen der Technik.