反对盲目相信人工智能的6个原因
2023年05月18日 由 Samoyed 发表
651869
0
人工智能正在改变世界,每个行业都能感受到ChatGPT带来的影响。无论如何,这些变革并非都是积极的。我们不能忽视人工智能缺乏内在的道德指导或事实核查系统来引导其决策的事实,尽管它在许多领域做出了巨大的贡献。
随着世界变得越来越“以人工智能为中心”,你应该认真核实你听到的一切信息的正确性。盲目地相信人工智能并不是一个好主意,因为有些工具可以操纵数据,完全曲解上下文,并且最终给出错误的答案。
下面有6个反对盲目相信人工智能的原因:
安全:
最明显和最根本原因是安全。事实证明,违背“First not harm”这一基本原则会产生严重而不可逆的后果。2018年,一辆自动驾驶的特斯拉汽车与混凝土护栏相撞,导致一名司机死亡。2019年的一篇研究论文试图证明,在道路上按照某些规律绘制的线条可能会破坏人工智能算法或导致车辆失控,尽管这种情况在现实中是比较少见的。
鲁棒性和安全性:
安全性集中体现在限制访问、保持系统内信息的诚信和始终可用方面。人工智能鲁棒性和安全性的弱点被成千上万的算法利用。这些恶意的攻击仍在继续。更重要的是,在缺乏全方位保护的情况下,人工智能工程师为每个新的系统度身定制安全措施。人工智能可能因为设计缺陷或特定对抗性攻击而做出错误判断。如果这是真的,那么通过穿着印有特定图案的t恤劫持别人的轮椅或进入安全区域也是可能的。
隐私:
避免伤害也是隐私原则的核心。现在已经有很多信息被泄露了,不法分子在未经他们同意的情况下获得这些信息,并利用这些信息对他们的幸福、金钱和个人生活进行分析。值得注意的是81%的美国人认为数据收集的好处大于风险。然而,研究人员发现,有色人种和少数民族成员比其他群体更容易受到伤害。由于他们在数据汇总中数量较少,他们的信息被更容易去匿名化。
透明度和公正性:
人工智能透明度的定义是广泛的。人工智能透明度最低的时候,用户应该知道他们与人工智能进行交互,而不是与人类进行交互。最高的时候,所有技术流程和数据都被记录、公开并且可理解。英国考试成绩丑闻就是缺乏透明度的一个很好的例子。据报道,该算法在确定成绩时不仅考虑了学生的表现,还考虑了学校以前的成绩和获得相同分数的学生人数。
伦理和环境:
人工智能必须以伦理道德和公平为目标。它必须遵守既定并执行的社会规范,也就是法律,这很简单,但在技术上具有挑战性。真正的问题出现在公共机构执行落后或采取自由主义策略的地方。人工智能工程师和所有者负责找到利益相关者的利益、手段和目的、隐私权和数据收集之间的正确伦理平衡。在工作场所,大型技术公司经常被指责为性别歧视。社会运动参与者和研究人员认为,“女性”语音助手使人们认为女性是工作者和照顾者的典型。
责任:
责任保证了系统可以针对前面提到的各个部分进行评估。大多数公司已经在内部设立了负责监控人工智能进展和防止利润损失的团队。然而,一些公司不允许外部控制或审查。例如Clearview AI,该公司提供的面部识别技术优于市场上所有其他技术,但它是私人所有,并由所有者自行决定。如果被犯罪组织或压迫政权使用,它可能会使成千上万的人处于危险之中。