Software wägt Risiken autonomen Fahrens ab
Ein Team der Technischen Universität München (TUM) hat eine Software entwickelt, sie wägt die Risiken des autonomen Fahrens auf der Straße besser ab. Es ist der erste Algorithmus, der die 20 Ethik-Empfehlungen der EU-Kommission berücksichtigt. Er berücksichtigt das unterschiedliche Risiko der Verkehrsteilnehmenden. Was den Betrieb von automatisierten Fahrzeugen deutlich sicherer machen soll. Der Code steht als Open Source öffentlich zur Verfügung.
Rund 2.000 Szenarien mit kritischen Situationen hat man dabei getestet. Verteilt auf unterschiedliche Straßentypen und Gebiete wie Europa, die USA und China. Die Forschungsarbeit – im Fachjournal „Nature Machine Intelligence“ veröffentlicht – entstand in Zusammenarbeit der Lehrstühle für Fahrzeugtechnik und für Wirtschaftsethik am Institute for Ethics in Artificial Intelligence (IEAI) der TUM.
Algorithmus der Software wägt in Sekundenbruchteilen Risiken autonomen Fahrens ab
Maximilian Geißlinger, Wissenschaftler am Lehrstuhl für Fahrzeugtechnik, erklärt den Ansatz so: „Bislang hat man autonome Fahrzeuge im Falle einer ethischen Fragestellung immer vor die Entscheidung ,entweder oder gestellt. Unser Algorithmus wägt verschiedene Risiken ab und trifft aus tausenden möglichen Verhaltensweisen eine ethische Entscheidung. Und das in Sekundenbruchteilen.“
Die ethischen Rahmenbedingungen hat eine Expert:innenrunde im Auftrag der EU-Kommission 2020 in einem Empfehlungsschreiben definiert. Es beinhaltet Grundsätze wie den Schutz schwächerer Verkehrsteilnehmer und die Aufteilung von Risiko im gesamten Straßenverkehr. Damit diese Regeln in mathematische Berechnungen übertragbar waren, teilte das Forschungsteam Fahrzeuge und Personen im Verkehr anhand des von ihnen ausgehenden Risikos für andere ein. Und anhand ihrer unterschiedlichen Risikobereitschaft. Ein Lastwagen kann anderen Verkehrsteilnehmern mehr Schaden zufügen. Während er selbst in vielen Szenarien nur in kleinerem Maße beschädigt wird. Bei einem Fahrrad ist es umgekehrt. Im nächsten Schritt hat man dem Algorithmus vorgegeben, in den verschiedenen Verkehrssituationen ein maximal akzeptables Risiko nicht zu überschreiten. Außerdem hat man Variablen einkalkuliert, die aus der Verantwortung der Verkehrsteilnehmer resultieren. Beispielsweise sich an Verkehrsregeln zu halten.
Bisherige Ansätze behandelten kritische Situationen auf der Straße nur mit einer geringen Anzahl möglicher Manöver. Im Zweifel blieb das Fahrzeug einfach stehen. Durch die nun in den Code eingebrachte Risikobewertung entstehen mehr Freiheitsgrade bei weniger Risiko für alle, so die TU München.
Ein Beispiel
Ein autonomes Fahrzeug möchte ein Fahrrad überholen, auf der Gegenfahrspur kommt ihm ein Lkw entgegen. Alle vorhandenen Daten über die Umgebung und die einzelnen Beteiligten werden nun herangezogen. Lässt sich das Rad überholen, ohne in die Gegenfahrspur zu fahren und gleichzeitig genug Abstand zum Fahrrad zu halten? Welches Risiko besteht für welches Fahrzeug? Und welches Risiko bedeuten diese Fahrzeuge für einen selbst? Im Zweifel wartet das autonome Gefährt mit der neuen Software immer, bis das Risiko für alle akzeptabel ist. Es vermeidet gefährliche Manöver, gleichzeitig bleibt das selbstständig fahrende Fahrzeug nicht urplötzlich stehen. Es gibt kein reines „Ja“ oder „Nein“ und Nein spielen keine Rolle. Eine Abwägung findet statt, die viele Optionen beinhaltet.
Franziska Poszler, Wissenschaftlerin am Lehrstuhl für Wirtschaftsethik der TUM: „Wir betrachten den Verkehr mit der Risikoethik als zentralem Ausgangspunkt. Das ermöglicht uns, mit Wahrscheinlichkeiten zu arbeiten und differenzierter abzuwägen.“
Von der Simulation auf die Straße
Bislang hat man den Algorithmus in Simulationen validiert. Mit dem Forschungsfahrzeug Edgar auf Basis eines VW T7 testet man die Software künftig auch auf der Straße. Die Entwickler der TU München betonen, dass auch Algorithmen, die nach der Risikoethik handeln, zwar jegliche mögliche Situation abdecken. Und eine Entscheidung auf Basis von moralischen Prinzipien treffen. Aber trotzdem keinen unfallfreien Straßenverkehr garantieren können. Künftig seien zudem weitere Differenzierungen wie etwa kulturelle Unterschiede in den Entscheidungen der Software zu berücksichtigen. (aum)