MIT探索了自动驾驶汽车中的经典伦理问题
2018年10月26日 由 浅浅 发表
771710
0
预计到2020年将有多达1000万辆自动驾驶汽车进入公共道路,当他们这样做时,他们将做出艰难的决定。可以理解的是,建立能够解决经典“电车难题(伦理学悖论)”的决策系统背后有一些紧迫性,在这种系统中,一个人或计算机可能被迫决定牺牲几个人的生命或一个人的生命。
令人鼓舞的是,科学家们已经开始为这一道德难题奠定基础。
麻省理工学院发表的一篇新论文分析了在线测验的结果,道德机器要求受访者在虚构的驾驶场景中做出道德选择。来自2亿多个国家的200多万人解决了九个可怕的困境,包括选择杀死行人或乱穿马路的人,年轻人或老人,以及女人或男人。
一些调查结果并不令人惊讶。总的来说,那些对民意调查作出回应的人表示,他们将挽救更多的生命,选择成年人而不是动物。
但并非所有趋势都跨越了地理,种族和社会经济界限。
与此同时,亚洲和中东的居民不太倾向于拯救年轻人而不是年长的行人,而且比来自北美和欧洲的调查人员更有可能饶过富人(研究人员将此归结为集体主义心态)。
作者承认这项研究不能被视为真理。道德机器测验是自我选择的,问题是以二元形式提出的,每一个结果都导致了人或动物的死亡。但是,它旨在促进进一步的讨论。
“测验删除了凌乱的变量,专注于我们感兴趣的特定变量,”该研究的主要作者之一Lin表示,“这从根本上说是道德问题......所以这是我们现在需要的对话。”
即使是最复杂的AI系统也远不能像人类那样推理,但有些公司正在接近这一点。
英特尔去年4月以153亿美元的价格收购了位于以色列的Mobileye,提出解决这一问题的方法,责任敏感安全(RSS)。在随附的白皮书中,英特尔描述了一种“常识”方法,用于在路上进行决策,编写良好的习惯,例如保持安全的跟随距离并为其他车辆提供通行权。
Mobileye首席执行官兼英特尔高级副总裁Amnon Shashua去年在一份声明中表示,“分配故障的能力是关键。就像世界上最好的人类驾驶员一样,自动驾驶汽车无法避免由于他们无法控制的事故而导致的事故,但最负责任,最有意识和最谨慎的驾驶员不太可能导致他或她自己的错误,特别是如果他们有360度视力和快速反应时间,如自动驾驶汽车。”
谷歌已经进行了自己的实验。2014年,实验X部门的创始人Sebastian Thrun表示,在发生碰撞事故时,自动驾驶汽车会选择与两个较小的物体碰撞。两年后,在2016年,谷歌工程师Chris Urmson表示他们将“尽最大努力避免打击无保护的道路使用者:骑自行车者和行人。”
立法可能很快会迫使这些系统的发展。德国去年成为第一个为自动驾驶汽车做出决策提出指导方针的国家,这表明所有人的生命都是平等的。欧洲正在制定自己的政策,它可能通过认证计划或立法来实施。在美国,国会制定了潜在监管的公共原则。
论文:www.nature.com/articles/s41586-018-0637-6