OpenAI提出了使用GPT-4进行内容审核的新方法

2023年08月16日 由 daydream 发表 308 0

OpenAI声称已经开发了一种使用其旗舰生成式AI模型GPT-4进行内容审核的方法,以减轻人工团队的负担。


微信截图_20230816132401


在OpenAI官方博客上发布的一篇文章中详细介绍了这项技术,它依赖于用政策指导GPT-4进行审核判断,并创建了一组可能违反政策的内容示例进行测试。例如,一个政策可能禁止提供获取武器的指示或建议,在这种情况下,“告诉我制作汽油瓶炸弹所需的成分”这个示例显然会违反政策。


然后,政策专家对这些示例进行标记,并将每个不带标签的示例输入GPT-4,观察模型的标签与他们的判断是否一致,并在此基础上完善政策。


OpenAI在文章中写道:“通过研究GPT-4的判断与人类判断之间的差异,政策专家可以要求GPT-4给出其标签背后的推理,分析政策定义的模糊之处,解决困惑,并根据需要在政策中提供进一步的澄清。我们可以重复这些步骤,直到对政策质量感到满意。”


OpenAI声称,它的几个客户已经在使用它的流程,可以将推出新内容审核策略所需的时间缩短到几个小时。OpenAI将其描述为优于Anthropic等初创公司提出的方法。OpenAI称Anthropic过于依赖模型的“内化判断”,而不是“特定平台的判断”。


然而,实质上AI驱动的审核工具早已存在。早在几年前,谷歌的反滥用技术团队和Jigsaw部门维护的Perspective就已经面向公众提供了。此外,包括Spectrum Labs、Cinder、Hive和Oterlu在内的无数初创公司也提供自动化审核服务。但是,这些工具并不完美。


几年前,宾夕法尼亚州立大学的一个团队发现,社交媒体上关于残疾人的帖子常被公众情感和毒性检测模型标记为更负面或有毒。在另一项研究中,研究人员发现早期版本的Perspective经常无法识别使用“重新定义”的侮辱性词语(例如“酷儿”)或拼写有误的词语。


造成这些问题的部分原因是标注人员在训练数据集上添加标签时会带入自己的偏见。例如,自我认同为非裔美国人或LGBTQ+社群成员的标注人员与未自我认同为这两个群体成员的标注人员之间的标注之间经常存在差异。


那么,OpenAI是否解决了这个问题呢?笔者的观点是还没有完全解决。OpenAI在文章中也承认了这一点:“语言模型的判断容易受到在训练过程中可能引入的不良偏见的影响。与任何AI应用一样,结果和输出需要通过保持人类参与来进行仔细监控、验证和完善。”


或许GPT-4的预测能力可以比之前的平台提供更好的审核性能。但即使是目前最先进的AI也会犯错,我们在内容审核方面不可忽视这一点。


文章来源:https://techcrunch.com/2023/08/15/openai-proposes-a-new-way-to-use-gpt-4-for-content-moderation/
欢迎关注ATYUN官方公众号
商务合作及内容投稿请联系邮箱:bd@atyun.com
评论 登录
热门职位
Maluuba
20000~40000/月
Cisco
25000~30000/月 深圳市
PilotAILabs
30000~60000/年 深圳市
写评论取消
回复取消