腾讯研究院近期发布了DRT-01模型,这是一款专注于文学作品翻译的AI工具。该模型利用长链思考推理(CoT)技术,显著提升了对比喻、隐喻等修辞手法的理解与翻译质量,从而更好地保留了原文的情感色彩和文化内涵。
DRT-01模型包含两个不同规模的版本,分别为DRT-01-7B和DRT-01-14B。相较于传统翻译模型,DRT-01在BLEU分数和CometScore上均实现了显著提升,分别提高了7.33至8.26和1.66至3.36。尤为值得一提的是,尽管DRT-01-7B的规模较小,但其性能却超越了规模更大的QwQ-32B模型,显示出其在处理复杂语言结构上的优势。
在技术层面,DRT-01采用了多智能体框架,这一框架包含翻译员、顾问和评估员三个角色。翻译员负责初步翻译,顾问则对翻译进行审查并提供修改建议,而评估员则根据预设指标对翻译质量进行评分。这一流程确保了翻译质量的持续优化。
此外,DRT-01还采用了迭代优化的工作方式。翻译过程包括关键词翻译、初步翻译和翻译精炼循环三个主要步骤。在精炼循环中,顾问会评估前一步的翻译质量并提供反馈,评估员则根据预定义的评分标准给出整体评分。翻译者再根据这些反馈和评分进行新的翻译,通过反复迭代,不断提升翻译质量。
为了训练DRT-01模型,腾讯研究院从古腾堡计划中选取了400本公共领域的英文书籍,提取了577600个句子,并从中筛选出63000个包含明喻和隐喻的句子。这些句子被用于训练模型进行深度思考,提升其对比喻和隐喻等修辞手法的理解能力。
DRT-01模型的长链思考推理(CoT)技术不仅提高了翻译的准确性,还增强了模型的可解释性。通过提供推理过程的可见性,CoT使得模型的决策过程更加透明,有助于研究人员理解模型的决策依据。同时,CoT还能帮助模型进行复杂的逻辑推理,充分利用上下文信息,通过逐步推理来解决问题。
综上所述,DRT-01模型是腾讯研究院在文学翻译领域的一项创新成果。通过引入长链思考推理技术和多智能体框架,该模型显著提升了文学作品的翻译质量,为文学翻译领域带来了新的可能性。