人工智能在隐秘环境下受到更多信任

2023年09月28日 由 camellia 发表 396 0

《哈佛商业评论》(Harvard Business Review)最新一期的一篇文章写道:“当人们看不到人工智能的工作原理时,他们可能会更信任它。”这篇文章展示了不知名模型的工作原理如何帮助人们更信任这个过程。 


1_副本

在科技行业的领导者中也可以观察到类似的模式。 作为硅谷众多注重形象的公司之一,苹果也确保对他们的人工智能和机器学习行为守口如瓶。 OpenAI也是如此,它正在努力隐藏自己的技术,但却在努力吸引企业客户。 


在今年的WWDC上,首席执行官Tim Cook明显没有使用“人工智能”,而是选择了更温和的“机器学习”。 这家iPhone制造商厌恶使用“人工智能”作为标签并不新鲜,因为该公司长期以来一直对其技术神奇能力持谨慎态度。 相反,苹果专注于机器学习的实用功能,强调其以用户为中心的受众的切实利益。


该公司的负责人在接受《早安美国》采访时说:“我们确实将其整合到我们的产品中,但人们不一定会认为它是人工智能。 这让苹果比微软和谷歌等竞争对手占据了上风,这些竞争对手目前正在吹嘘他们的人工智能产品,但却难以适应整个公司”。


OpenAI在保密方面遵守与苹果相同的策略。 该公司发布的98页技术文件甚至缺乏有关人工智能模型数据或架构的基本细节。 尽管该报因内容肤浅而受到严厉批评,但这种隐秘的做法似乎对该公司有利。 


信任这个流程


来自乔治敦大学、哈佛大学和麻省理工学院的一组研究人员分析了美国奢侈品零售商在186家商店的425种产品的库存决策。 一半的员工从一个容易理解的算法中获得推荐,另一半的推荐来自一个无法破译的算法。


对决策的比较分析表明,员工更频繁地与不透明的人工智能提供的建议保持一致。 结果得出的结论是,当人们不完全了解人工智能系统的工作原理时,他们对人工智能系统表现出更高的信心。


Timothy DeStefabo教授强调了一个公认的现象,即决策者通常不愿意,无论是有意识还是无意识地,接受人工智能生成的指导,选择推翻它。这不是第一次了。 从历史上看,新技术最初遇到阻力是一种常态。


DeStefabo和他的团队与Tapestry合作,Tapestry是一家价值67亿美元的公司,也是Coach,Kate Spade和Stuart Weitzman的母公司。 协作努力开始研究这种不情愿的根源,并找到减轻这种不情愿的战略。


该公司长期以来一直使用基于规则的算法来帮助分配者估计需求。 该模型是由用户从他们的日常经验和他们可以看到的输入理解。 该公司开发了一个更复杂的预测模型,对用户来说是一个黑匣子,以获得更好的准确性。 事实证明,出货量与后者产生的建议接近50%,这表明用户更信任黑盒模型。


在此之前,该公司长期依赖基于规则的算法来帮助分配者估计需求。 这些算法是用户可以理解的,基于他们的日常经验和输入。 然而,该公司开发了一种更复杂的“黑盒”预测模型,以获得更高的准确性。 令人惊讶的是,出货量与后者产生的推荐接近50%,这表明用户更信任黑盒模型。 这一结果表明,用户对黑盒模型有更大的信任。


分配器否决不太复杂的系统的一个原因是由于“过度自信的故障排除”—用户认为他们比实际更了解模型。 DeStefabo写道,尽管员工们不知道这个模型是如何工作的,因为它是在一些同事的投入下开发和测试的,但这给了他们对这个模型的信心。 


总之,科技公司需要关注客户的需求,而不是向客户出售技术诀窍。

文章来源:https://analyticsindiamag.com/ai-trust-grows-when-hidden/
欢迎关注ATYUN官方公众号
商务合作及内容投稿请联系邮箱:bd@atyun.com
评论 登录
写评论取消
回复取消