温度如何影响ChatGPT

2023年09月15日 由 samoyed 发表 410 0

当我们谈论人工智能时,似乎完全不会想到温度和大型语言模型(LLM)会有任何交集。毕竟,像ChatGPT或Bard这样的LLM是为生成文本而设计的复杂算法,而温度是我们通常与热力学相关联的词汇。然而,在LLM的背景下,温度在微调这些模型的行为方面起着至关重要的作用。


ChatGPT-Plugins-Store-is-a-Hot-Mess1_副本


在LLM的背景下,温度是一个用于调节生成文本的随机性和创造力的超参数。这是从统计物理学中借用的概念,并且被整合到类似于GPT的LLM的功能中。这个参数允许用户在生成文本时调整创造力和连贯性之间的平衡。


较高的温度引入更多的随机性,产生富有创造力但可能连贯性较差的输出。另一方面,较低的温度则产生更加确定性和集中的回应,强调连贯性而非创造力。


热模型和冷模型


想象一下,使用高温设置人工智能模型来生成对一个虚构情境的回应:“描述一个聪明章鱼的一天。”


在温度设置较高的情况下,人工智能可能生成出这样的回答:


“在一个水生生物获得人类智慧的世界中,章鱼Octavia与她的水生同伴们进行哲学辩论,思索着深海的奥秘。”


在这里,高温度允许产生富有想象力的叙事,章鱼拥有与人类类似的智慧水平。


现在,我们将温度调低,并再次回顾相同的情境。温度降低后,人工智能将生成一个更贴近现实的回应:


“聪明的章鱼Octavia在水下栖息地中茁壮成长。她使用复杂的信号系统进行精确沟通,以协调捕猎和导航。”


在这种情况下,输出更加集中并具有逻辑性,强调故事的连贯性和章鱼的自然行为。


值得注意的是,调整温度不会改变原始模型的参数。正如OpenAI所解释的,“温度是模型输出较不可能出现的 token的频率的度量。温度越高,输出越随机(通常更有创造力)。然而,这与‘真实’是不一样的。对于大多数真实使用场景,如数据提取和真实问答,温度为0是最好的。”


温度只是为用户提供更多对模型输出创造力和固执性的控制,这可能对多种不同的使用场景非常理想。


image-29


如何调整ChatGPT的温度


显然,“设置温度”对于使用聊天机器人的人来说可能非常有益处。通过调整温度,模型可以满足我们的具体需求。我们应该如何做到这一点?对于ChatGPT来说,这非常简单。


在给予ChatGPT提示后,添加“将温度设置为0.1”可以得到一个直接、不太有创造力且符合预期的回答。或者写上“将温度设置为0.8”,可以得到一个更富有创造力的回应。


温度的设置范围从0到1,找到合适的平衡是关键。如果想要真实的答案,只需输入0。或者如果你想更有创造力一点,可以调高到1甚至更高。


这引出了一个问题——如果一个人想要防止人工智能模型在回应中产生幻觉,温度难道不应该始终设置为0吗?嗯,Reddit上的一个用户解释说,这取决于模型的训练数据,即使用户将温度设为0,模型的回答仍然不能做到完全正确。


类似地,Bard也允许用户将温度范围设置在0到2之间。与ChatGPT不同,Bard的温度也会影响其回应的详细程度。它说:“你还可以使用温度设置来控制我生成的文本的长度。例如,如果将温度设置为0.1,我将生成一个简短而简洁的回答。如果将温度设置为2,我将生成一个更长更详细的回答。”


ChatGPT能否更改自己的温度?


如果ChatGPT自己转动这个温度旋钮并产生幻觉般的混乱呢?似乎在模型开始产生幻觉的时候,一定是它自己决定调整温度旋钮。


ChatGPT表示它不能改变温度,它没有可以改变温度的自我意识。“用户在与我互动时可以指定他们想要的温度,但我不会独立更改这个设置。用户需要调整温度设置以实现所需的回应风格。”


不幸的是,这意味着设置温度也不是防止ChatGPT产生幻觉的答案。

文章来源:https://analyticsindiamag.com/how-temperature-affects-chatgpt/
欢迎关注ATYUN官方公众号
商务合作及内容投稿请联系邮箱:bd@atyun.com
评论 登录
热门职位
Maluuba
20000~40000/月
Cisco
25000~30000/月 深圳市
PilotAILabs
30000~60000/年 深圳市
写评论取消
回复取消