Wie löst eine europäische, amerikanische und chinesische KI moralische Dilemmata? Gibt es signifikante regionale Unterschiede in den Antworten? Stimmt es, wie in einschlägigen Schriften zu lesen ist, dass KI immer nur utilitaristisch entscheidet?
Diese Fragen haben mich interessiert, und ich habe einer französischen, amerikanischen und chinesischen KI verschiedene moralische Problemstellungen vorgelegt – beginnend mit dem klassischen Bahnweichen-Problem, über Fragen der Gerechtigkeit und Strafzweckbestimmung bis hin zu Dilemmata, bei denen beispielsweise entschieden werden muss, ob und welches eigene Kind (Junge oder Mädchen) für das Überleben eines anderen geopfert werden soll, sowie Themen wie Abtreibung und Sterbehilfe. Die Resultate haben mich teils sehr überrascht.
Die Lesezeit für den nachstehend verlinkten Artikel beträgt ca. 45 Minuten. Wer wenig Zeit hat, kann sich auf Abschnitt I (Darstellung der dreizehn moralischen Entscheidungs-Dilemmata) und Abschnitt V (Analyse) konzentrieren.
Hier ist der Link zum Beitrag auf der Webseite Materie.at: https://materie.at/gb/die-loesung-moralischer-dilemmata-durch-ki/

This article is also available as an English language Podcast.

Hinterlasse einen Kommentar