因董事会在2023年11月17日解雇备受瞩目的首席执行官Sam Altman而引发的OpenAI公司内部混乱,使人工智能的安全性以及人工通用智能(AGI)的迅速发展问题成为了焦点。人工通用智能通常定义为在一系列任务中接近人类水平的智能。
OpenAI董事会声明,Altman被解雇是因为缺乏诚信,但猜测主要集中在Altman与董事会成员之间的分歧上,他们担心OpenAI的迅速增长妨碍了公司对AGI构成的灾难性风险的关注。
OpenAI开发AGI的目标已经与AI获得超级智能能力的想法以及保护技术不被滥用或失控的必要性交织在一起。但就目前而言,AGI及其相关风险还是一个推测性的议题。同时,特定任务形式的AI真实性很高,并且已经变得非常普遍。
AI在许多人的日常生活中占据了显著的位置,从面部识别解锁你的手机,到语音识别驱动你的数字助理。它还扮演你可能没有意识到的角色——例如,塑造你的社交媒体和在线购物体验,引导你的视频观看选择,以及在共享出行服务中为你匹配司机。
AI还以你可能完全没有注意到的方式影响你的生活。如果你正在申请一份工作,许多雇主在招聘过程中使用AI。你的上司可能用它来识别可能辞职的员工。如果你正在申请贷款,很可能你的银行使用AI来决定是否批准。如果你正在接受医疗治疗,你的医疗服务提供者可能用它来评估你的医疗影像。如果你认识某个被卷入刑事司法系统的人,AI可能在决定他们的生活轨迹中扮演重要角色。
许多AI系统存在潜在的偏见。例如,机器学习方法使用归纳逻辑,即从一组前提出发,从训练数据中归纳出模式。一种基于机器学习的简历筛选工具被发现对女性存在偏见,因为训练数据反映了过去的实践,当时提供的简历大多是男性提交的。
在从医疗保健到儿童福利的各个领域使用预测方法可能会表现出像队列偏见这样的偏见,这会导致对社会中不同群体的不平等风险评估。即使法律实践禁止基于种族和性别等属性的歧视。研究发现,风险相当的黑人和拉美裔借款人在政府支持的企业证券化和联邦住房管理局保险贷款上支付的利息显著高于白人借款人。
当决策者以与算法设计者初衷不同的方式使用算法时,也会产生偏见。在一个众所周知的例子中,一个神经网络学习将哮喘与患有肺炎的死亡风险较低联系起来。这是因为患有肺炎的哮喘患者通常会得到更积极的治疗,从而降低了他们与总体人群相比的死亡风险。然而,如果这样一个神经网络的结果被用于医院床位分配,那么那些患有哮喘并且因肺炎入院的人会被危险地排在后面。
算法的偏见还可能源于复杂的社会反馈循环。例如,在预测再犯时,使用者希望预测哪些被判有罪的人可能会再次犯罪。但用于训练预测算法的数据实际上是关于谁可能会被再次逮捕。
虽然大型语言模型,如为ChatGPT提供动力的GPT-3,以及多模态大型语言模型,如GPT-4,是通往人工通用智能的道路上的一步,但它们也是人们在学校、工作和日常生活中越来越多地使用的算法。考虑由于大范围使用大型语言模型而产生的偏见至关重要。
例如,这些模型可能会表现出由于性别、种族或宗教的负面刻板印象以及对少数族裔和残疾人代表性的偏见。随着这些模型展现出在像律师资格考试这样的测试上超越人类的能力,我相信它们需要更严格的审查,以确保AI增强的工作符合透明度、准确性和源头归属的标准,并且利益相关方有权力执行此类标准。