Studie der Uni Osnabrück Treffen Maschinen bald ethische Entscheidungen?

Anne Köstner

Meine Nachrichten

Um das Thema Osnabrück Ihren Nachrichten hinzuzufügen, müssen Sie sich anmelden oder registrieren.

Versuchspersonen mussten sich Dilemma-Situationen in einer virtuellen Realität stellen. Grafik: Universität OsnabrückVersuchspersonen mussten sich Dilemma-Situationen in einer virtuellen Realität stellen. Grafik: Universität Osnabrück

ansk Osnabrück. Autonome Fahrzeuge können bald das Verhalten von Menschen imitieren und moralische Entscheidungen in Dilemma-Situationen treffen. Das zeigt eine Studie des Instituts für Kognitionswissenschaft der Universität Osnabrück.

Es ist dunkel, die Straße nur schwer zu erkennen. Hinter einer Kurve taucht unerwartet ein Kind auf der Fahrbahn auf. Auf der Gegenspur befindet sich ein Radfahrer. Ein Unfall ist unvermeidbar, jetzt muss eine Spur gewählt werden. Wie handelt ein menschlicher Autofahrer in einer solchen Situation? Und wie soll sich ein autonomes Fahrzeug verhalten?

Vor diesem Dilemma steht die Automobilindustrie. Dabei sollen automatisierte Fahrzeuge eigentlich nicht nur ein angenehmes Fahrvergnügen schaffen, sondern vor allem auch Unfälle verhindern; also zur Sicherheit der Menschen beitragen. Denn laut Statistischem Bundesamt sind die meisten Unfälle im Straßenverkehr auf menschliches Versagen oder Fehlverhalten zurückzuführen.

Simulierte Dilemma-Situationen

Die Kognitionswissenschaftler der Universität Osnabrück haben sich dem Problem angenommen, wie die Universität in einer Pressemitteilung berichtet. Demnach analysierten die Kognitionswissenschaftler in einer Studie das Verhalten von Versuchspersonen in einer simulierten Verkehrssituation. Die Teilnehmer der Studie fuhren in der virtuellen Realität durch einen typischen Vorort und mussten sich unvermeidlichen und unerwarteten Dilemma-Situationen stellen: Objekte, Tiere und Menschen tauchten auf beiden Spuren der Straße auf. Die Versuchspersonen mussten sich durch eine moralische Abwägung für eine der Spuren entscheiden.

Laut der Universität Osnabrück weisen die Ergebnisse der Auswertung darauf hin, dass das moralische Verhalten dadurch beeinflusst wird, dass Menschen jedem Objekt, jedem Tier und jedem Menschen eine unterschiedliche Wertung geben. Insofern ließe sich das menschliche Verhalten mit beachtlicher Präzision vorhersagen, erklärt Leon Sütfeld, Kognitionswissenschaftler und Hauptverfasser der Studie. „Das zeigt, dass menschliche moralische Entscheidungen prinzipiell mit Regeln beschrieben werden können und dass diese Regeln als Konsequenz auch von Maschinen genutzt werden könnten“, erläutert Sütfeld. Menschliches Verhalten sei auf komplexes Abwägen zurückzuführen. Dieses Abwägen erlaube es Menschen, aber auch künstlichen Intelligenzen, neue Situationen zu bewerten.

Regeln sollen sich von menschlichem Verhalten ableiten lassen

Dieses Ergebnis stünden im Widerspruch zu einem Bericht der Ethik-Kommission des Ministeriums für Verkehr und Digitale Infrastruktur, die sich mit automatisiertem Fahren beschäftigt hat. Die Kommission erklärt in ihrem Bericht, dass das menschliche Verhalten nicht eindeutig normierbar und auch nicht ethisch zweifelsfrei programmierbar sei. „Technische Systeme müssen auf Unfallvermeidung ausgelegt werden, sind aber auf eine komplexe oder intuitive Unfallfolgenabschätzung nicht so normierbar, dass sie die Entscheidung eines sittlich urteilsfähigen, verantwortlichen Fahrzeugführers ersetzen oder vorwegnehmen könnten“, so die Kommission. Sütfeld widerspricht: Regeln für die Programmierung der Maschinen müssten „nicht abstrakt am Schreibtisch durch einen Menschen formuliert, sondern aus dem menschlichen Verhalten abgeleitet und gelernt werden.“

Inwieweit die menschliche Moral das Verhalten von Maschinen überhaupt beeinflussen sollte, sei eine andere Frage. Professor Peter König, weiterer Autor der Veröffentlichung, spricht von zwei moralischen Dilemmata: „Erstens müssen wir uns über den Einfluss von moralischen Werten auf die Richtlinien für maschinelles Verhalten entscheiden. Zweitens müssen wir uns überlegen, ob wir es wollen, dass Maschinen sich menschlich verhalten sollen.“


Weitere Angebote, Produkte und Unternehmen der noz MEDIEN