Zukünftige Dilemma-Situation Künstliche Intelligenz: Können und sollen Maschinen moralisch handeln?

Von Kai-Uwe Kühnberger (Gastautor)

Maschinen wissen nicht, was Tugenden sind, was Werte sind. Sie kennen kein Mitgefühl, sie verstehen noch nicht einmal, warum es Verbote oder Gebote gibt oder was Gut und Böse bedeutet, sagt 
Kai-Uwe Kühnberger. Foto: Gert WestdörpMaschinen wissen nicht, was Tugenden sind, was Werte sind. Sie kennen kein Mitgefühl, sie verstehen noch nicht einmal, warum es Verbote oder Gebote gibt oder was Gut und Böse bedeutet, sagt Kai-Uwe Kühnberger. Foto: Gert Westdörp

Osnabrück. Die gestellte Frage besteht aus zwei Teilen. Erstens: Können Maschinen moralisch handeln? Zweitens: Sollen Maschinen moralisch handeln? Auf die erste Frage ist meine Antwort: Nein, sie können nicht in einem menschlichen Sinne moralisch handeln. Auf die zweite Frage: Ja, sie sollen moralisch handeln. Das ist erst mal ein Widerspruch, aber ich will versuchen, zu erklären, was ich damit eigentlich meine.

Fangen wir mit der zweiten Frage an: Sollen Maschinen moralisch handeln? Ich möchte an dieser Stelle nicht auf verhaltensmodifizierende Algorithmen eingehen, die uns sanft kontrollieren, sei es bezüglich dessen, was wir zu lesen bekommen, was wir einkaufen, was wir essen oder wie viel Sport wir machen. Ich möchte aber auf zukünftige Dilemma-Situationen im militärischen Bereich hinweisen: In naher Zukunft wird es mit hoher Wahrscheinlichkeit autonome Waffensysteme geben, die selber entscheiden, ob sie eine Luft-Boden-Rakete abfeuern, um beispielsweise einen Terroristen zu eliminieren. Entscheidend dürfte sein, wo er sich versteckt hält: in einem leeren Wohnhaus, in einem Terror-Camp, in einem bewohnten Wohnhaus, in einem Krankenhaus, in einer Schule oder in einem Kindergarten. Ohne eine moralische Bewertung der möglichen Kollateralschäden durch die Maschine ist so eine Situation schlicht nicht vorstellbar. Deswegen: Ja, Maschinen sollen moralisch handeln.  (Weiterlesen: Insektenkekse für das Publikum beim Osnabrücker Wissensforum)

11. Osnabrücker Wissensforum

Beim 11. Osnabrücker Wissensforum im November 2018 haben 33 Professoren der Universität Osnabrück Fragen von Lesern der Neuen Osnabrücker Zeitung beantwortet. Heute als Beitrag: Künstliche Intelligenz. Können und sollen Maschinen moralisch handeln?

Maschinen wissen nicht, was Tugenden sind

Aber: Können sie das überhaupt? Meine Antwort ist: nein, definitiv nicht in einem menschlichen Sinn. Maschinen wissen nicht, was Tugenden sind, was Werte sind. Sie kennen kein Mitgefühl, sie verstehen noch nicht einmal, warum es Verbote oder Gebote gibt oder was Gut und Böse bedeutet. Insofern können sie auch nicht moralisch handeln. Dies liegt im Wesentlichen daran, dass Maschinen auf fundamental anderen Prinzipien der Informationsverarbeitung basieren als wir Menschen. Deshalb sind sie uns Menschen auch in einigen Dingen deutlich überlegen, in anderen aber nicht.

Kai-Uwe Kühnberger ist Professor für Künstliche Intelligenz. Foto: André Havergo


Soweit haben wir einen Widerspruch, was meine Antworten auf die beiden Fragen angeht. Aber, und dies ist ein entscheidender Punkt: Maschinen können natürlich moralisches Handeln simulieren, beziehungsweise lernen, dieses zu simulieren. Ich würde so weit gehen zu behaupten, sie können das vermutlich in Zukunft so gut simulieren, dass sie darin nicht unbedingt signifikant schlechter sein müssen als wir Menschen.

Diese Grafik stammt von Kunststudentin Christina Porat. Grafik: Porat


Maschinen können nämlich eine Bewertungsfunktion lernen, die neue, noch ungesehene Situationen klassifiziert, beispielsweise in eine Situation, in der Kollateralschäden beim Abfeuern einer Luft-Boden-Rakete minimal sein würden – oder eben auch nicht. Auf dieser Grundlage könnten sie dann eine Entscheidung fällen, so ähnlich wie das ein Colonel der US-Armee heute auch macht.

Absolute Regeln?

Aber eine solche Bewertungsfunktion könnte eventuell auch noch andere Dinge: Sie könnte beispielsweise absolute Regeln beinhalten, zum Beispiel ein absolutes Folterverbot, oder sie könnte aus vielen Beispielen eine Hierarchie von Werten erlernen, das ihr erlaubt, in bestimmten Situationen zu lügen, um Schlimmeres zu verhindern; oder sie könnte Abschätzungen erlernen, um den Gesamtnutzen einer Handlung zu maximieren im Sinne einer utilitaristischen Ethik. Dadurch würde ein solches System Entscheidungen fällen können, die wir von außen als moralische Entscheidungen interpretieren würden, wenngleich die Maschine im menschlichen Sinne nicht moralisch handelt. Und in diesem Sinne würde der scheinbare Widerspruch aufgelöst werden.


Über das Internetangebot der Universität Osnabrück sind die Beiträge des 11. Wissensforums auch als Video abrufbar unter www.uni-osnabrueck.de/wissensforum.

Das 12. Wissensforum findet am Freitag, 15. November 2019, statt.

Weitere Angebote, Produkte und Unternehmen der noz MEDIEN