赫尔辛基大学AI基础教程:AI的社会影响(6.2节)

2018年06月16日 由 yuxiangyu 发表 725577 0


在本课程一开始,我们简要地讨论了人工智能在当今和未来社会中的价值,但当时我们讨论的还很浅,因为我们没有引入足够的技术概念和方法来具体讨论。






现在我们对人工智能的基本概念有了更好的理解,我们就可以更好地参与到对现有人工智能的意义的理性讨论中。


赫尔辛基大学AI基础教程






1:算法的偏见




人工智能,特别是机器学习正被用于在许多领域做出重要决策。这提出了算法偏见的概念。这意味着,在决定求职申请,银行贷款等时,会根据种族,性别或其他因素时有歧视的范倾向。





注:


再说一遍,都是关于数据的


算法偏见的主要原因是数据中存在人为偏见。例如,当一个工作应用程序过滤工具接受了人类决策的训练时,机器学习算法可能会学会歧视具有特定种族背景的妇女或个人。请注意,即使种族或性别被排除在数据之外,也可能发生这种情况,因为算法能够利用申请人姓名或地址中的信息。




算法的偏见不是学术研究人员假想出的威胁。这是一个现实已经影响到人们的现象。





在线广告




人们已经注意到,像谷歌这样的在线广告商倾向于向女性用户展示与男性相比薪水更低的广告。同样,用一个听起来非洲裔美国人的名字进行搜索可能会产生一个用于查询犯罪记录的工具的广告,而其他名字搜索这种情况不太可能发生。





社交网络




由于社交网络的内容推荐本质上是基于其他用户的点击,因此它们很容易放大现有的偏见,即使这些偏见一开始很小。例如,据观察,当搜索女性名字的专业人员时,LinkedIn会询问用户他们是否实际上是指一个类似的男性姓名:搜索Andrea会导致系统询问“您的意思是Andrew”吗?如果人们偶尔点击Andrew的个人资料,或许只是出于好奇,这个系统会在随后的搜索中更加强化Andrew。





我们还可以举出很多其他的例子,你可能看过关于它们的新闻报道。使用人工智能和机器学习取代基于规则的系统的主要难点是缺乏透明度。部分原因是这些算法和数据的推论是公司不可能向公众开放,接受公众监督的商业机密。并且,即使他们这样做了,通常很难确定算法的哪个部分或数据的哪个元素导致歧视的决策。




注意


通过监管实现透明度?


实现透明度的一大步骤是欧盟通用数据保护条例(GDPR)。它要求所有居住在欧盟内部或拥有欧洲客户的公司必须:




  • 根据要求,披露他们收集的关于任何个人的数据(知情权)

  • 根据要求,删除任何不是其他业务必须保留的数据(被遗忘权)

  • 提供对客户数据进行数据处理的说明(解释权)


换句话说,最后一点意味着Facebook和Google等公司至少在向欧洲用户提供服务时,必须解释他们的算法决策过程。然而,目前还不清楚究竟什么是解释。例如,通过使用最近邻分类(第4章)得出的决定是否可以作为可解释的决策,或者逻辑回归分类器的系数是否更好?那么很容易涉及数百万个参数并且使用TB级数据进行训练深度神经网络呢?关于机器学习决策的可解释性的技术实现的讨论是当前的热点。无论如何,GDPR有可能提高人工智能技术的透明度。


赫尔辛基大学AI基础教程




2:眼见为实吗?




我们习惯于相信我们看到的东西。当我们在电视上看到一位领导人表示他们的国家将与另一个国家进行贸易战时,或者当一家知名公司发言人宣布一项重要的商业决定时,我们倾向于相信他们,而不是相信从别人写的新闻中读一些二手的声明。





同样,当我们看到来自犯罪现场的照片证据或新科技产品的演示时,我们更重视证据而不是解释事物外观的书面报告。





当然,我们知道制造假证据的可能性。人们可以通过PS,把他们从未去过的地方和从未见过的人放在一起。在为最新的减肥药做广告之前,你也可以通过简单地调整光线或者在拍摄前把肚子缩进去来改变事物的外观。




注:


人工智能正在把伪造证据的可能性提高到一个全新的水平


Face2Face是一种能够识别一个人的面部表情,并在Youtube视频中把这些表情放到另一个人的脸上的系统。


Lyrebird 是一个从几分钟录音样本中自动模仿人声音的工具。虽然生成的音频仍然明显的机器人音调,但它给人留下了非常好的印象。


赫尔辛基大学AI基础教程




3:改变隐私的概念




众所周知,科技公司会收集很多用户的信息。而早些时候,主要是杂货店和其他零售商通过向顾客提供会员卡来收集购买数据,从而使商店能够将购买与个人顾客联系起来。




注:


前所未有的数据准确性


Facebook,谷歌,亚马逊等科技公司的数据的准确性远远超出了传统商店收集的购买数据:原则上,可以记录每次点击,每页滚动以及观看任何内容的时间。网站甚至可以访问你的浏览历史,所以除非你在浏览某个网站上的巴塞罗那航班时使用隐身模式(或其他类似模式),否则你很可能会收到巴塞罗那酒店的广告。




然而,像上述那种数据记录还不是人工智能。使用人工智能会对我们的隐私带来新的威胁,即使你在暴露身份方面非常小心,这种威胁也很难避免。





使用数据分析来分析个人




很难避免这个问题的典型例子是去匿名化,打破我们认为安全的匿名数据。基本问题是,当我们报告分析结果时,结果可能具体到让我们能够了解包含在分析中的数据的个别用户。典型的例子有要求给出给定年份出生并具有特定的邮政编码的人的平均工资。在很多情况下,这可能是一小群人,通常甚至只有一个人,所以你可能会知道关于一个人薪水的数据。





德州大学奥斯汀分校的研究人员指出一个更精细问题的例子。他们研究了由Netflix提供的公开数据集,该数据集包含约500,000名匿名用户的1000万电影评级,并且显示许多Netflix用户实际上可以链接到TMDb(The Movie Database)上的用户帐户,因为他们已经在这两个应用程序上评分过几部同样的电影。因此,研究人员能够消除Netflix数据的匿名性。虽然你可能认为其他人是否知道你如何评价最新星球大战电影无关紧要但有些电影可能会揭示我们生活的方方面面(比如政治或性),我们应该有权利保持隐私。





其他识别方法




原则上,这种方法可用于匹配几乎所有收集用户行为详细数据的服务中的用户帐户。另一个例子是打字模式。赫尔辛基大学的研究人员已经证明,用户可以根据他们的打字模式进行识别,如:在输入文本时,特定按键之间的短间隔。这可能意味着,如果某人有权访问您打字模式中的数据(可能你使用过他们的网站并通过输入自己的姓名进行了注册),那么即使你拒绝明确标识自己,他们也可以在下次使用其服务时识别你。他们也可以把这些信息卖给任何想买的人。





尽管上面的许多例子在一定程度上出人意料(否则它们可能已经被避免),但同样有很多正在进行的研究试图解决它们。特别是试图开发一种称为差分隐匿(difference privacy)的机器学习算法,它可以确保结果足够粗糙以防止逆向工程特定的数据点。




赫尔辛基大学AI基础教程




4:改变工作




当一个早期的人类学会使用锋利的岩石来切开死去动物的骨头,以获得新的营养来源时,时间和能量就会被释放出来,用于其他目的,如战斗、寻找伴侣和创造更多的发明。18世纪发明的蒸汽机,大大提高了工厂以及船舶和火车的效率。自动化一直是提高效率的途径:以更少的资源获得更多。特别是自20世纪中期以来,技术发展导致了自动化史上前所未有的进展。AI是这一进步的延续。





实现更好自动化的每一步都会改变工作生活。用尖锐的石头,减少狩猎和采集食物的需求;使用蒸汽机,减少了对马匹和骑手的需求;与计算机相比,打字员,手工记帐和许多其他数据处理的需求就减少了。有了人工智能和机器人技术,许多沉闷的重复性工作也可能不再需要了。




注:


寻找新工作的历史


在过去,每当一种工作被自动化,人们就会找到新的工作来取代它。新作品的重复性和日常性较少,而且更具变化性和创造性。目前人工智能和其他技术的发展速度问题是:在个人的职业生涯中,工作生活的变化可能比以往任何时候都要大。可以想象,一些工作,如卡车或出租车司机,也许会在几年的时间内消失。这种突然的变化可能导致大规模失业,因为人们没有时间去训练自己从事其他类型的工作。


为了避免此类重大社会问题,最重要的预防行动是帮助年轻人获得广泛的教育。这为从事许多不同的工作提供了基础,在不久的将来也不会有被淘汰的危险。


支持终生学习和工作中学习也同样重要,因为我们很少有人会在整个职业生涯中做同样的工作。减少每周工作时间将有助于为更多的人提供工作,但经济学定律往往会促使人们多工作,而不是少工作,除非引入公共政策来规范工作量。




因为我们无法预测AI的未来,所以预测这种发展的速度和程度是非常困难的。据牛津大学(University of Oxford)研究人员报告,约有47%的美国人面临着工作自动化程度的问题。这个确切的数字47%(不是45%或49%),这听起来像是从很复杂的研究设计得来的数据,而报告这些数据的顶尖大学往往会让这些数据听起来非常可靠和精确(回想一下基于有限数据量使用线性模型估计预期寿命的那节)。精确到百分之一是一个谬误。例如,上面的数字是基于查看大量的工作描述(就像是用手指末端感受风 ),并使用主观依据来决定哪些工作可能会自动化。可以理解的是,人们不愿费心阅读一份79页的报告,尤其是包含“任务模型假定可追溯性是一种聚合的、规模收益的,柯布-道格拉斯生产函数”。然而,如果你不这样做,那么你也应该对结论持怀疑态度。这种分析的真正价值在于,它表明哪种类型的工作更有可能处于风险之中,而不是像47%这样的实际数字。悲剧的是,热门只记得报道的标题“美国有近一半的工作面临电脑化的危险”。





那么什么是更可能自动化的工作呢?关于这一点,我们已经看到了一些明显的迹象:








  • 诸如自驾车(包括汽车,无人驾驶飞机和船只或渡轮)这样的自主机器人解决方案正处于主要商业应用的边缘。自驾车的安全性很难估计,但统计数据表明,它可能还没有达到所需的水平(普通驾驶员的水平)。然而,它的进展非常迅速,而且由于可用数据量的增加,进展还在加速。






  • 诸如服务台之类的客户服务应用程序可以以一种非常划算的方式实现自动化。目前,服务质量并不总是令人满意,瓶颈是语言处理(系统不能识别口头语言或解析语法)以及提供实际服务所需的逻辑和推理。但是,在受限领域工作的应用(如进行餐厅或理发预定)不断发展。







一方面,很难说我们有多快会有安全可靠的自动驾驶汽车和其他可以替代人类工作的解决方案。除此之外,我们不要忘记卡车或出租车司机不仅仅是驾驶车辆:他们还负责确保车辆正常运行,他们处理货物并与客户进行谈判,他们保证他们的货物和旅客的安全,还可能照顾许多可能比实际驾驶更难以自动化的其他任务。





与早期的技术进步一样,人工智能也将带来新的工作。未来很可能有一大部分员工将专注于研发工作,需要创造力的任务和人与人之间互动的任务。请参阅(https://towardsdatascience.com/artificial-intelligence-and-the-rise-of-economic-inequality-b9d81be58bec)。




练习25:AI的影响





关于人工智能的文章有哪些? 你认为他们是否现实?在网上搜索与你兴趣相关的AI文章。选择其中一篇文章进行分析。AI的理解是否准确?这些启示是否现实?


赫尔辛基大学AI基础教程合集:赫尔辛基大学AI基础教程


欢迎关注ATYUN官方公众号
商务合作及内容投稿请联系邮箱:bd@atyun.com
评论 登录
热门职位
Maluuba
20000~40000/月
Cisco
25000~30000/月 深圳市
PilotAILabs
30000~60000/年 深圳市
写评论取消
回复取消