未来人工智能(AI)在极端情况下会拥有和人一样的道德判断吗?如果未来无人驾驶汽车要大量投入使用,必须为它确定社会普遍接受的道德标准才行。
英国《自然》杂志日前就发表了一项有关方面的人工智能研究:美国麻省理工学院(MIT)以" 在无法避免的事故中,无人驾驶汽车应如何作出决定拯救哪一方 "为调查内容做了项全球道德偏好调查。
该研究团队搭建了一个名为 " 道德机器 " 的大型在线调查平台,参与者可置身于一个不可避免的事故场景,事故中行人与乘客身处不同的危险中,参与者可选择驾驶路线决定究竟救谁,该平台总共记录了约 4000 万个参与者决定,该结果将用于为制定社会普遍接受的人工智能(AI)道德标准提供重要借鉴。
其中,研究人员将道德偏好给予分类,譬如救多数不救少数、救小孩不救老人、救人不救动物等,同时还发现了不同文化间的道德偏好差异:来自中美洲和南美洲国家、法国以及前法属海外领地和现法属领地的参与者,更偏向于先救女性和强壮个体;而来自收入差距较大国家的参与者在决定救谁时,一般会考虑其社会地位。
【来源:驱动之家】