OpenAI实际上并不了解它的AI是如何工作的

2024年06月04日 由 samoyed 发表 179 0

在上周于瑞士日内瓦举行的国际电信联盟“人工智能造福全球”峰会上,OpenAI首席执行官萨姆·阿尔特曼在被问及该公司的大型语言模型(LLM)内部如何真正运作时,显得有些困惑。


sam-altman-admits-openai-understand-ai


据《观察者》报道,他说:“我们当然还没有解决可解释性问题。”他基本上表示,该公司尚未弄清楚如何追溯其AI模型经常出现的古怪和不准确的输出,以及它得出这些答案所做出的决策。


当被《大西洋月刊》首席执行官尼古拉斯·汤普森在活动上追问,这是否应该成为“不要继续发布更新、更强大的模型”的理由时,阿尔特曼似乎很困惑,他用并不坚决的保证回应说,这些AI“通常被认为是安全且稳健的”。


阿尔特曼不令人满意的回答突显了新兴AI领域的一个真正问题。研究人员长期以来一直难以解释幕后发生的自由“思考”,AI聊天机器人几乎神奇且毫不费力地对任何被抛出的查询做出反应(除了谎言和误导性信息之外)。


但是,尽管他们竭尽全力,但要将输出追溯到AI训练时使用的原始材料已被证明是极其困难的。OpenAI也对其用于训练AI的数据保密得极其严密。


英国政府委托的一个由75名专家组成的委员会最近在一份具有里程碑意义的科学报告中得出结论,AI开发者“对他们的系统如何运作知之甚少”,科学知识“非常有限”。


报告写道:“模型解释和可解释性技术可以提高研究人员和开发人员对通用AI系统运作方式的理解,但这项研究仍处于起步阶段。”


其他AI公司正在尝试通过绘制其算法的人造神经元来找到“打开黑箱”的新方法。例如,OpenAI的竞争对手Anthropic最近详细研究了其最新大型语言模型Claude Sonnet的内部工作原理,作为第一步。


Anthropic在最近的一篇博客文章中写道:“自公司成立以来,Anthropic在可解释性研究方面投入了大量资金,因为我们相信深入了解模型将有助于我们使其更加安全。”


“但这项工作才刚刚开始,”该公司承认,“我们发现的特征只是模型在训练过程中学到的所有概念的一小部分子集,使用我们目前的技术找到完整的特征集将是成本高昂的。”


Anthropic写道:“了解模型使用的表示并不能告诉我们它是如何使用它们的;即使我们有了这些特征,我们仍然需要找到它们所涉及的电路。” “而且我们需要证明,我们已经开始找到的安全相关特征实际上可以用来提高安全性。”


鉴于围绕AI安全性和人工通用智能失控风险的激烈争论,AI可解释性是一个特别相关的话题,这对一些专家来说代表着对人类的灭绝级危险。


阿尔特曼本人最近解散了公司整个所谓的“超级对齐”团队,该团队致力于寻找“引导和控制比我们聪明得多的AI系统”的方法——只是任命自己为替代的“安全委员会”的负责人。


鉴于这位陷入困境的CEO的最新评论,该公司在能够约束任何超级智能AI之前还有很长的路要走。


当然,对阿尔特曼来说,尽管他不知道其核心产品实际上是如何工作的,但继续向投资者保证公司致力于安全和保障是最符合其财务利益的。


“在我看来,我们越能了解这些模型中发生了什么,就越好,”他在上周的会议上说。“我认为这可以是我们如何制定和验证安全声明的一个组成部分。”

文章来源:https://futurism.com/sam-altman-admits-openai-understand-ai
欢迎关注ATYUN官方公众号
商务合作及内容投稿请联系邮箱:bd@atyun.com
评论 登录
热门职位
Maluuba
20000~40000/月
Cisco
25000~30000/月 深圳市
PilotAILabs
30000~60000/年 深圳市
写评论取消
回复取消