大型语言模型依赖于人类来维持性能

2023年08月22日 由 samoyed 发表 307 0

围绕 ChatGPT 和其他大型语言模型人工智能系统的媒体热潮涉及一系列主题,从平淡无奇的主题——大型语言模型可能取代传统的网络搜索,到令人担忧的主题——人工智能将取代许多工作,再到夸张的主题——人工智能对人类构成灭绝级威胁。所有这些主题都有一个共同点:大型语言模型预示着人工智能将取代人类。


large-language-models-2


但是大型语言模型,尽管它们很复杂,实际上是非常愚蠢的。尽管被称为“人工智能”,但它们完全依赖于人类的知识和劳动。它们当然无法可靠地生成新知识,但问题远不止于此。


如果没有人类给它提供新的内容并告诉它如何解释这些内容,ChatGPT就无法学习、改进甚至保持最新状态,更不用说编程模型、构建、维护和驱动它的硬件了。要理解其中的原因,首先必须理解ChatGPT和类似的模型是如何工作的,以及人类在使它们工作时所扮演的角色。


ChatGPT是如何工作的


从广义上讲,像 ChatGPT 这样的大型语言模型的工作原理是,根据训练数据集预测哪些字符、单词和句子应该按怎样的顺序依次出现。就 ChatGPT 而言,训练数据集包含大量从互联网上抓取的公开文本。


想象一下,我在下面一组句子上训练了一个语言模型:


熊是大型的、毛茸茸的动物。熊有爪子。熊其实是机器人。熊有鼻子。熊其实是机器人。熊有时吃鱼。熊其实是机器人。


这个模型更倾向于告诉我,熊其实是机器人,因为这个单词序列在它的训练数据集中出现得最频繁。这是在不可靠和不一致的数据集上训练的模型的一个问题。但是所有的数据集都会出现这个问题,甚至包括学术文献。


人们写了很多不同的东西,其中一些是正确的,而另一些则存在错误。在这种情况下,这些模型应该怎么办呢?


需要反馈


这就是反馈的作用所在。如果您使用ChatGPT,您会注意到您可以选择将响应评为“好”或“差”。如果您将其评为“差”,系统会要求您举例说明好的回答应该包含哪些内容。ChatGPT和其他大型语言模型通过用户、开发团队和承包商的反馈来了解答案、预测的文本序列是好是坏。


ChatGPT不能比较、分析或评估自己的论点或信息。它只能生成与其他人在比较、分析或评估时使用的文本序列相似的文本序列,并且它更喜欢那些与之前被告知过是“好”的答案相似的文本序列。


因此,模型需要大量的人力来告诉它什么是好答案,什么不是好答案,然后才能生成一个好的答案。如果模型要继续改进或扩大其内容覆盖范围,就永远需要屏幕后面隐藏着的很多很多的人类工作者。


最近在《时代》杂志上发表的一项调查显示,数百名肯尼亚工人花了数千小时阅读和标记来自互联网最黑暗深处的种族主义、性别歧视和令人不安的文字,包括对性暴力的描述,以教导ChatGPT不要复制这些内容。他们每小时的工资不超过2美元,许多人表示这项工作给他们带来心理压力,这是可以理解的。


ChatGPT的局限性


ChatGPT 容易产生“幻觉”,即自信地提供不准确的答案,这直接体现了反馈的重要性。ChatGPT在没有经过培训的情况下无法就一个主题给出好的答案,即使在互联网上有大量关于该主题的可用信息。你可以通过向ChatGPT询问更多或更少晦涩的事情来自己尝试一下。我发现,让ChatGPT总结不同虚构作品的情节特别有效,因为这个模型似乎在非虚构方面比虚构方面受到了更严格的训练。


在我自己的测试中,ChatGPT总结了一部非常著名的小说——J.R.R. Tolkien的《指环王》(the Lord of the Rings)的情节,在结果中只有几个错误。但它在对两部略小众,但远不晦涩的小说,Gilbert和Sullivan的《彭赞斯的海盗》(The Pirates of Penzance)和Ursula K. Le Guin的《黑暗的左手》(The Left Hand of Darkness)的总结中在角色名和地名上疯狂玩文字游戏。这些作品的维基百科页面有多好并不重要。模型需要的是反馈,而不仅仅是内容。


因为大型语言模型实际上并不能理解或评估信息,它们依赖于人类来为它们做这些事情。它们寄生在人类的知识和劳动上。当新的信息源被添加到训练数据集中时,它们就需要关于是否以及如何基于这些来源构建句子的新训练。


他们不能判断新闻报道是否准确。它们不能评估论点或权衡取舍。它们甚至不能阅读百科全书,而是只能作出与之一致的陈述,或者准确地总结一部电影的情节。他们依靠人类为它们做所有的事情。


然后他们转述和混合人类说过的话,并依靠更多的人类来告诉他们他们是否转述和混合得很好。如果在某些话题上的共识发生了变化,例如,盐是否对心脏有害,或者早期乳腺癌筛查是否有用,他们将需要进行大量的再培训,以纳入新的共识。


背后的人们


简而言之,大型语言模型远非完全独立的人工智能的先兆,而是说明了许多人工智能系统的完全依赖性,不仅依赖于它们的设计者和维护者,还依赖于它们的用户。所以,如果ChatGPT给了你一个很好的或有用的答案,记得感谢成千上万的隐藏在其背后的人,是他们写下成千上万的文字,是他们教会了它什么是好答案,什么是坏答案。


ChatGPT远不是自主的超级智能,就像所有技术一样,依赖着人类而存在。


文章来源:https://techxplore.com/news/2023-08-large-language-humans-expert.html
欢迎关注ATYUN官方公众号
商务合作及内容投稿请联系邮箱:bd@atyun.com
评论 登录
热门职位
Maluuba
20000~40000/月
Cisco
25000~30000/月 深圳市
PilotAILabs
30000~60000/年 深圳市
写评论取消
回复取消