AI推理模型兴起,促使新型提示方法需求显现

2025年01月14日 由 daydream 发表 4408 0

近年来,AI推理模型的发展势头强劲。自2024年9月OpenAI推出其o1推理模型以来,该领域迎来了新一轮的革命。o1模型虽然在回答问题时耗时较长,但其性能卓越,尤其在解决复杂的多步骤数学和科学问题上表现突出。此后,商业AI领域迅速涌现了众多模仿者和竞争者,如DeepSeek的R1、Google的Gemini 2 Flash Thinking,以及最新的LlamaV-o1等,它们均旨在提供与OpenAI的o1及即将推出的o3系列模型相似的内置“推理”功能。


微信截图_20250114101156


这些模型采用了“思维链”(Chain-of-Thought, CoT)提示或“自我提示”技术,要求模型在分析过程中进行自我反思、回溯、检查,并最终得出比直接快速输出嵌入信息更准确的答案。然而,o1及其迷你版的高昂成本(每100万输入标记15美元,相比之下GPT-4o在OpenAI API上的价格为每100万输入标记1.25美元)引发了一些争议,质疑其性能提升是否真正值得付出12倍于普通先进大型语言模型(LLM)的费用。


尽管如此,越来越多的用户开始接受这类模型,而解锁推理模型真正价值的关键可能在于用户提示方式的变化。据AI新闻服务Smol的创始人分享的来自前苹果visionOS界面设计师Ben Hylak的观点,用户在与o1模型交互时,应更多地提供“简报”而非简单的提示。这意味着用户需要提供详细的上下文信息,明确说明期望的输出内容、用户身份以及所需信息的格式。


Hylak指出,传统上,用户会告诉模型如何回答,例如“你是一位专家软件工程师,请慢慢思考并仔细回答”。然而,在使用o1模型时,他建议只说明“要做什么”,而不具体指导“如何做”,让模型自主规划和解决问题步骤。这种方法利用了模型的自主推理能力,并可能比人工审核和交互更快。


此外,对于非推理型LLM,如Claude 3.5 Sonnet,用户同样可以通过改进提示方法来获得更好、更不受限制的结果。例如,前Teton.ai工程师、现神经调节设备openFUS创作者Louis Arge提到,他发现LLM更信任自己的提示而非用户的提示,并分享了如何通过“触发冲突”与Claude进行“战斗”,从而说服其输出更勇敢、不受拘束的答案。


综上所述,随着AI时代的发展,提示工程仍然是一项重要的技能。

文章来源:https://venturebeat.com/ai/do-new-ai-reasoning-models-require-new-approaches-to-prompting/
欢迎关注ATYUN官方公众号
商务合作及内容投稿请联系邮箱:bd@atyun.com
评论 登录
热门职位
Maluuba
20000~40000/月
Cisco
25000~30000/月 深圳市
PilotAILabs
30000~60000/年 深圳市
写评论取消
回复取消