人工智能的道德影响,究竟该是谁的责任?

2017年09月05日 由 nanan 发表 822858 0
人工智能新闻

马克思对人工智能的警告和脸书机器人创造的一种让人类无法理解的语言,可能就会让人们联想到机器人征服世界的画面。

虽然这样说会造成一场灾难,可能会有些牵强,但人工智能的后果已经产生了,并且值得人们去关注:人工智能的道德问题。

尽管现在的机器已经处理事情处理了几十年了,但现在的不同之处在于,强大的计算机处理可以实时提供有意义的结果。其实,有些机器是可以做人类的专属领域的,例如自主学习。

那么,现在就会产生一个新的问题:机器能学会道德准则吗?

人类想要同时驾驭科学方法和道德决策这两个领域还是很困难的,而更难的是让计算机算法能让机器的行为符合道德准则。

学术界和商界都使用实证科学来确定其相关性和因果关系,这类研究的成果是获得大量的客观信息,然而,道德层面的选择问的并不是是否会产生一个有效的结果,而是这是否是一个好的决定。

换句话说,这是一个正确的做法吗?

每个人经常做出公平、诚实、和尊重等道德决定,在某种程度上,人们通过正式的学习和思考这些原则,然而生活经验才是主要的启蒙老师,这些经验包括个人的实践和对他人的观察,而有些人认为这些价值观是与生俱来的,也就是说,这些价值观是与生俱来的。

那么,问题又来了,制造出的计算机能够具有一定的正直观念吗?是否包含公正的理念?是否能学会尊重?对于机器来说,如果存在这种潜力,至少有四个关键问题急需解决:

一.机器能谈论道德问题吗?

尽管人们可能认同不同的道德标准,但往往通过讨论或跟当事人进行接触,来解决这些分歧,更重要的是,是否愿意接受和解呢?

二.应该使用谁的道德标准?

每个人对原则的理解往往都不尽相同,例如关于体面与不雅的语言与服装的定义,就有很多不同的观点。

三.算法能把上下文考虑进去吗?

道德决策的一个特点是:具有高度的细微差别,例如,在大多数的情况下,如果一家公司的产品需求非常高,并且供应不足,这样的话,公司就可以趁机提高商品价格,但如果,这个商品是一种救命的药草,而行业的竞争让该公司成为唯一的供应商,那么计算机是否能识别这种信息,并对特殊情况做出主观评价呢?

四.最后谁应该负起责任?

深陷丑闻的人往往把矛头指向别人,试图以此来开脱自己,那么,将这个错误追溯到自学机器上,又会有怎样的事情发生呢?如果一台电脑不能承担责任,那么谁该承担此责任?是制造机器的公司、编写软件的公司,还是使用它们的公司?更重要的是,具体到哪些人应该对此负责?

值得让人高兴的是,人工智能已经对许多人的生活产生了影响,我们可以想象,更加先进的应用成倍地增加这种积极影响。

在未来,我相信选择正确的道德观念将被编码应用到人工智能。
欢迎关注ATYUN官方公众号
商务合作及内容投稿请联系邮箱:bd@atyun.com
评论 登录
热门职位
Maluuba
20000~40000/月
Cisco
25000~30000/月 深圳市
PilotAILabs
30000~60000/年 深圳市
写评论取消
回复取消