生成式人工智能的迅速发展迫切需要对数据、规模、责任、版权和误信息风险采取紧急的道德保障措施。先进的人工智能发展的速度如同闪电般快速,但伴随其而来的风险同样迅猛。
形势变得如此复杂,以至于专家们难以预见风险。
尽管大多数领导者在未来几个月越来越重视GenAI应用,他们对随之而来的风险也持怀疑态度——比如数据安全问题和结果偏见等。
比尔与梅琳达·盖茨基金会的首席执行官Mark Suzman认为:“虽然这项技术可以引领突破,加速科学进展和提高学习成效,但这样的机会并非没有风险。”
让我们从数据说起
考虑这样一个事实——一位著名的生成式AI模型创造者表示:“它在业务必要时会收集个人信息,如姓名、电子邮件地址和支付信息。”
最近的情况显示,如果没有指导框架,事情会出错的方式多种多样。
由于生成式人工智能模型是在几乎所有互联网数据的基础上训练的,我们可以说是隐藏在这些神经网络层中的一小部分。这强调了遵守数据隐私法规的必要性,并且不能在未经用户同意的情况下使用用户数据进行模型训练。
最近,一个公司因为从互联网上刮取自拍照而构建面部识别工具,导致隐私泄露和重罚。
然而,数据安全、隐私和偏见都存在于前生成式人工智能时代。那么,随着生成式人工智能应用程序的推出,发生了什么变化?
好吧,考虑到模型训练和部署的规模,一些现有风险只会变得更大。让我们了解如何操作。
规模——一把双刃剑
幻觉、及时注射和缺乏透明度
了解这些庞大模型的内部工作原理以信任它们的反应变得更加重要。用微软的话来说,这些新出现的风险是因为LLM“旨在生成看起来连贯且符合上下文的文本,而不是坚持事实准确性”。
因此,这些模型可能会产生误导性和不正确的反应,通常称为幻觉。当模型对预测缺乏信心时,它们可能会出现,从而导致生成不太准确或不相关的信息。
此外,提示是我们与语言模型交互的方式;现在,不良行为者可以通过注入提示来生成有害内容。
人工智能出错时的问责制?
使用 LLM 会引发关于这些模型生成的输出和有偏见的输出的问责制和责任的道德问题,这在所有 AI 模型中都很普遍。
高风险应用(例如在医疗保健领域)加剧了风险——想想错误的医疗建议对患者健康和生活的影响。
最重要的是,企业需要建立合乎道德、透明和负责任的方法来开发和使用生成式人工智能。
侵犯著作权
由于这些大型模型是建立在全球材料之上的,因此它们极有可能消耗了音乐、视频或书籍等创作。
如果受版权保护的数据在未获得必要的许可、信用或补偿原创作者的情况下用于训练 AI 模型,则会导致侵犯版权,并可能使开发人员陷入严重的法律纠纷。
深度伪造、错误信息和操纵
有一种非常可能在大范围内制造混乱的现象,那就是深度伪造——想知道深度伪造能力会导致我们陷入什么境地吗?
它们是合成创造物——文本、图像或视频,可以通过深度生成方法数字化地操纵面部外观。
结果呢?霸凌、错误信息、恶作剧电话、报复或欺诈——这些都不符合繁荣世界的定义。
这篇文章旨在让所有人意识到,人工智能是一把双刃剑——它不全是只针对重要举措起作用的魔法;坏人也是其中的一分子。正是如此,我们需要提高警惕。
安全措施
以最新的一个假视频新闻为例,该视频突出了一位政治人物从即将到来的选举中的撤退。
可能的动机是什么?——你可能会这样想。这样的错误信息像火一样迅速蔓延,并且可能严重影响选举过程的方向。
那么,我们能做什么来避免成为这种假信息的受害者呢?
有各种各样的防御线,让我们从最基本的开始:
暂停发展是解决办法吗?
著名的人工智能研究人员和行业专家,如Yoshua Bengio、Stuart Russell、Elon Musk、Steve Wozniak和Yuval Noah Harari,也表达了他们的担忧,呼吁暂停此类人工智能系统的开发。
有一个普遍的担忧是,构建高级人工智能的竞赛,特别是和生成式人工智能匹敌的人工智能,可能会迅速失控。
有所进展
微软最近宣布,只要客户遵守护栏和内容过滤器,它将保护其人工智能产品买家免受版权侵犯的影响。这是一个重大的安慰,显示了采取责任行动来应对使用其产品产生的后果的正确意图——这是伦理框架的核心原则之一。
这将确保作者保留对他们权利的控制,并获得他们的创作的公平补偿。
这是朝着正确方向迈出的伟大进步!关键是要看这会在多大程度上解决作者的关切。
下一步是什么?
到目前为止,我们已经讨论了与技术正确使用相关的关键道德影响。然而,从这项技术进步的成功应用中衍生出的风险是工作岗位的流失。
有一种观点引发了恐惧,认为人工智能将取代我们大部分工作。麦肯锡最近分享了一份关于未来工作可能是什么样的报告。