人工智能系统的潜在不利因素
2019年11月12日 由 TGS 发表
409799
0
Stanislav Petrov这个名字在计算机科学领域并不算出名,但发生在他身上的故事却给人工智能开发者上了很重要的一课。1983年9月26日,苏联防御警报系统宣布美国发射了五颗洲际导弹,Stanislav Petrov作为该系统体系的领导层,本该下令发射导弹予以报复,但在最后关头,他却犹豫了,开始批判性的思考,为什么?
当时全球政治形势虽然紧张,但还没有到用导弹解决的地步,还有就是,美国既然选择了发动毁灭性战争,那么为什么仅仅只发射了五颗导弹?经过严谨的思考后,这位前苏联的官员做出了一个无比英明的决策,不发射导弹予以回击。最终结果证明,他是对的,美国并没有发射导弹,只是一场虚惊而已。他的决定,拯救了世界。
这个故事告诉人们,在社会技术算法系统中,不考虑到根据特定情景下通过人类推理而采取行动的能力,无疑是一场灾难。如果当时导弹发射按钮掌握在机器手中,那么,如今的世界会是怎样?
围绕人工智能系统的语言将技术拟人化,这才是真正意义上的人工智能,而不是代码或算法,不再那么冷冰冰。现实中的人工智能往往是有缺陷的,并不完美,也不具备可以大规模推广的普遍性。
技术沙文主义是Meredith Broussard创造的一个术语,所谓的改造人类,则是这个术语的延伸,即调整人类以适应人工智能系统的限制,而不是调整技术以服务人类。这无疑是一种本末倒置的行为。
一些研究表明,由于感知到数据和人工智能的客观性,所以人类相较于相信自身,反而更愿意相信人工智能,相信算法。即使是在低技能的任务中,即使考虑到算法中潜在的缺陷,很多人也依旧宁愿相信冰冷的机器算法,而不是相信人类自身的优越性。
有缺陷的设计会导致带有潜在偏见的结果,人工智能的不完美性从根本上导致了盲信的不可取之处。在科技如此发达的今天,很多人迷信数据,从某种层面上来讲这很合理,因为数据精确且客观,相较于带有感性的人类判断,数据无疑更可靠,但需要厘清的一点是,虽然数据大多数情况下完美精确,可这并不意味着它永远正确。
此外,发挥主观能动性的是人,而不是数据本身,即便是无比正确的数据,可要是用错了地方,结果也将是灾难性的。