AI安全性和偏见是安全研究人员面临的紧迫而复杂的问题。随着人工智能融入到社会的方方面面,理解其发展过程、功能和潜在缺陷至关重要。
英特尔实验室智能系统研究实验室主任拉玛·纳奇曼表示,包括来自不同领域专家的意见在人工智能的训练和学习过程中至关重要。她说:"我们假设人工智能系统是从领域专家那里学习的,而不是从人工智能开发者那里学习的,教授人工智能系统的人不懂如何编程人工智能系统,系统可以自动构建这些动作识别和对话模型。"
这提供了一个令人兴奋但可能代价高昂的前景,系统可以在与用户交互的过程中继续改进。纳奇曼解释道:“在对话的一般方面,你绝对可以利用其中的一些部分,但在人们进行物理世界操作的特定性方面,这与在ChatGPT中所做的事情不同。这表明,尽管当前的人工智能技术提供了出色的对话系统,但向理解和执行物理任务的转变是一个完全不同的挑战。"
她说,AI安全性可能会受到多种因素的影响,如目标定义不清、鲁棒性不足以及对特定输入的AI响应的不可预测性。当一个AI系统在大规模数据集上进行训练时,它可能会学习并复制数据中存在的有害行为。
AI系统中的偏见也可能导致不公平的结果,如歧视或不公正的决策。偏见可以以多种方式进入AI系统,例如通过用于训练的数据,这些数据可能反映了社会中存在的偏见。随着人工智能继续渗透到人类生活的各个方面,由于偏见的决策而造成的损害潜在增加,这强调了我们需要有效的方法来检测和减轻这些偏见的需求。
另一个问题是AI在传播虚假信息方面的作用。随着精密的AI工具变得越来越容易获取,使用这些工具生成具有误导性的内容以误导公众舆论或推广错误叙述的风险也增加了。其后果可能是深远的,包括对民主、公共卫生和社会凝聚力的威胁。这凸显了构建强大的对策来减轻AI传播虚假信息的需要,以及进行持续研究以应对不断演变的威胁。
对于每一项创新,都有一系列不可避免的挑战。纳奇曼建议设计人工智能系统时要在高层次上"与人类价值观保持一致",并建议采用以风险为基础的人工智能开发方法,考虑信任、问责、透明度和可解释性。现在解决人工智能问题将有助于确保未来系统的安全性。