Entscheidungen über Leben und Tod Uni Osnabrück redet Roboterautos ins Gewissen

Von Renate Leonhard

Meine Nachrichten

Um das Thema Lotte Ihren Nachrichten hinzuzufügen, müssen Sie sich anmelden oder registrieren.

Brenzlige Situationen erfordern moralische Abwägungen. Die Kognitionswissenschaftler der Uni Osnabrück beobachten mit ihrer Virtual-Reality-Technik Versuchspersonen bei ihren Entscheidungen im Straßenverkehr. Grafik: Universität Osnabrück/Institut für KognitionswissenschaftBrenzlige Situationen erfordern moralische Abwägungen. Die Kognitionswissenschaftler der Uni Osnabrück beobachten mit ihrer Virtual-Reality-Technik Versuchspersonen bei ihren Entscheidungen im Straßenverkehr. Grafik: Universität Osnabrück/Institut für Kognitionswissenschaft

Osnabrück. Soll ein selbstfahrendes Auto seine Insassen zur Not in den Tod lenken? An der Universität Osnabrück haben Forscher überlegt, wie Roboterwagen in ausweglosen Situationen moralische Entscheidungen treffen können.

Autonome Technik wird die Zahl der jährlichen Verkehrsopfer nach Schätzungen um 90 Prozent senken. Ungeklärt ist jedoch die Frage, wie sich computer- und sensorgesteuerte Fahrzeuge in ausweglosen Situationen verhalten sollen. Wenn ein Unfall also nicht zu vermeiden ist, Anzahl und Schwere der Verletzungen der möglichen Opfer aber beeinflussbar scheinen. Zur normativen Ethik selbstfahrender Fahrzeuge haben Wissenschaftler des Instituts für Kognitionswissenschaft nun eine Studie veröffentlicht. (Weiterlesen: Verkehrsexperten warnen vor Unfallrisiken durch autonomes Fahren)

Maschinen brauchen Regeln

„Selbstfahrende Autos werden die erste Generation von Robotern sein, die moralische Entscheidungen mitten in unserer Gesellschaft treffen“, sagt Peter König, Professor für Neurobiopsychologie und gemeinsam mit dem Osnabrücker Futurologen Maximilian Wächter Verfasser der Studie. Es sei deshalb dringend notwendig, Regeln und mögliche Handlungsweisen für autonome Fahrzeuge zu entwickeln. Dass menschlich-ethische Entscheidungen in Maschinen implementiert werden können, hat bereits eine 2017 veröffentlichte Studie der Uni Osnabrück gezeigt.

Bei der neuen Untersuchung gingen die Wissenschaftler einen Schritt weiter, indem sie sich auf allgemeingültige Urteile und Wertmaßstäbe fokussieren, die auf rationalen, uneigennützigen und überparteilichen Betrachtungen basieren. Diese normative Ethik bestimmt über das sittliche Handeln im konkreten Fall, wenn beispielsweise zwischen mehreren Übeln abgewägt werden muss. Wächter veranschaulicht das mit einem Beispiel: „Sie fahren in einem Kleinwagen, davor drei Radfahrer. Ein Lastwagen kommt Ihnen entgegen. Rechts auf dem Gehweg arbeiten vier Mitarbeiter der Stadtwerke. Plötzlich stürzen die Radfahrer. Es ist zu spät, um zu bremsen.“ Was nun? (Weiterlesen: Niedersachsen will beim autonomen Fahren Vorreiter sein)

Simulation am Computer

Während ein menschlicher Fahrer vermutlich die Radler erfassen würde, könne ein autonomes Fahrzeug noch reagieren. Es muss sich aber entscheiden: Soll es anstatt der Radfahrer die Gruppe auf dem Bürgersteig umfahren? Oder sollte das Auto lieber das Leben seines Passagiers aufs Spiel setzen und mit dem Lkw kollidieren?

Um das Verhalten von Versuchspersonen in einem solchen Dilemma zu beobachten, nutzten die Osnabrücker Forscher sogenannte Virtual-Reality-Technik, bei der die Wirklichkeit am Computer nachgeahmt wird. Auf simulierten Fahrten durch neblige Vorort- oder Berglandschaften erschienen plötzlich einzelne Menschen oder Gruppen in den Fahrspuren. Die Probanden am Steuer des virtuellen Wagens mussten dann auswählen, mit welchen Personen oder Objekten sie auf der Straße zusammenprallen wollen.

Gemeinschaft vor Individuum

„Den Menschen auf der eigenen Fahrspur auszuweichen, hätte bedeutet, eine andere Anzahl an Menschen auf der benachbarten Fahrspur zu opfern. Für die Teilnehmer war eine moralische Abwägung notwendig“, erläutert Wächter. Die beobachteten Entscheidungen wurden dann durch eine statistische Analyse ausgewertet. „Die Ergebnisse weisen darauf hin, dass im Rahmen dieser unvermeidbaren Unfälle moralisches Verhalten größtenteils zum Wohl der Gemeinschaft entschieden wird.“ (Weiterlesen: Ökonomen sehen großes Sparpotenzial durch autonome Autos)

Darauf aufbauend war es den Autoren der Studie möglich, eine normative Ethik für selbstfahrende Fahrzeuge zu entwickeln. So programmierte Roboterautos schützen also eher Gruppen als Einzelpersonen, eher Kinder als Erwachsene. Für das von Wächter bemühte Beispiel mit dem Kleinwagen heißt das: Das Auto wählt den Zusammenprall mit dem entgegenkommenden Laster, weil das die geringsten Kosten für die Gemeinschaft verursacht.

Konflikt mit dem Grundgesetz

Die Osnabrücker Kognitionswissenschaftler hoffen, mit ihrer Studie einen großen Diskurs anzustoßen – zumal das Grundgesetz aktuell eine Abwägung von Menschenleben gegeneinander verbietet.


Weitere Angebote, Produkte und Unternehmen der noz MEDIEN