人工智能生成的虚假错误报告让开发人员抓狂

2024年12月11日 由 neo 发表 150 0

人工智能不仅在社交媒体上造成了垃圾信息的泛滥,显然也已波及到开源编程社区。类似地,诸如X的Community Notes这类事实核查工具在面对海量虚假信息时显得力不从心,开源项目的贡献者们也纷纷抱怨,他们不得不花费大量时间来评估和揭穿那些通过AI代码生成工具创建的错误报告。


QQ截图20241211165430

近日,《The Register》报道了Seth Larson在博客文章中提出的这些担忧。Larson是Python软件基金会的一名驻场安全开发人员,他指出,开源项目中“极其低质量、充斥垃圾信息和LLM幻觉的安全报告”正在增多。他补充道:“这些报告初看似乎合法,因此需要投入时间去反驳。”这可能对支撑互联网大部分的开源项目(如Python、WordPress、Android)构成严重威胁,因为这些项目往往由少数无偿贡献者维护。普遍代码库中的合法错误一旦被利用,可能会产生广泛影响。Larson表示,尽管目前他看到的AI生成的垃圾报告数量相对较少,但这一数量正在上升。

另一位开发者Daniel Sternberg则指责一名错误提交者浪费了他的时间,认为该报告是由AI生成的。他批评道:“你提交的这份看似明显是AI生成的‘报告’,声称存在安全问题,可能是AI让你相信的。你随后浪费我们的时间,没有告知我们这是AI生成的,还继续做出更多看似也是AI生成的垃圾回应。”

代码生成已成为大型语言模型日益流行的应用场景,尽管许多开发者对其真正实用性仍持保留态度。像GitHub Copilot或ChatGPT自带的代码生成器这样的程序,能够非常高效地生成脚手架代码,即启动任何项目所需的基本框架代码。它们在查找开发人员可能不太熟悉的编程库中的函数时也颇具价值,能帮助开发者迅速找到所需的小段代码。

然而,和任何语言模型一样,它们也可能出现幻觉并生成错误代码,或仅提供部分代码段。它们并不“理解”代码,只是根据已知信息猜测你可能需要的内容的概率机器。要开发一个完整的项目,开发者仍需从根本上理解所使用的编程语言,以便调试问题、明确构建目标,以及将所有独立的代码块组合在一起。因此,领域专家表示,初级开发者将最直接地受到这些工具的影响。仅通过AI就能构建的简单应用程序可能早已存在。

像HackerOne这样的平台会为成功的错误报告提供奖金,这可能会诱使某些人利用ChatGPT搜索代码库中的漏洞,并提交LLM返回的错误信息。

垃圾信息在互联网上一直存在,但AI使其生成变得更加容易。我们似乎正面临一个需要更多技术(如用于登录界面的CAPTCHA验证码)来应对这一情况的局面。这无疑是一个不幸的状况,也是对每个人时间的极大浪费。

文章来源:https://gizmodo.com/bogus-ai-generated-bug-reports-are-driving-open-source-developers-nuts-2000536711
欢迎关注ATYUN官方公众号
商务合作及内容投稿请联系邮箱:bd@atyun.com
评论 登录
热门职位
Maluuba
20000~40000/月
Cisco
25000~30000/月 深圳市
PilotAILabs
30000~60000/年 深圳市
写评论取消
回复取消