评估工作场所生成式人工智能的风险
2023年07月18日 由 Susan 发表
901041
0
在生成型人工智能呈指数级增长的情况下,迫切需要评估这些解决方案在工作场所的法律、道德和安全影响。
行业专家强调的一个担忧是,许多生成式人工智能模型的训练数据往往缺乏透明度。
对于像驱动ChatGPT等应用程序的GPT-4这样的模型使用的训练数据,没有足够的详细信息。在个体用户的交互过程中获得的信息的存储也缺乏明确而且还增加了法律和合规风险。
通过与生成式人工智能解决方案的交互,公司数据或代码泄漏的潜在风险令人担忧。
Oxylabs的风险管理负责人Vaidotas Šedys表示:“当与受欢迎的生成式人工智能解决方案进行交互时,个别员工可能会泄漏他们的公司数据或代码。”。
“虽然没有确凿的证据表明提交给ChatGPT或其他生成式人工智能系统的数据可能存储并与其他人共享,但作为新的和测试较少的软件往往存在安全漏洞,风险仍然存在。”
ChatGPT背后的机构OpenAI在提供有关用户数据处理方式的详细信息时保持谨慎。这给寻求减少机密代码片段泄露风险的组织带来挑战。对员工活动的持续监控和实施生成式人工智能平台使用警报变得必要,这对许多组织来说是负担。
“进一步的风险包括使用错误或过时的信息,特别是在初级专家的情况下,他们通常无法评估人工智能输出的质量。大多数生成式模型基于大而有限的数据集,需要不断更新,”Šedys补充道。
这些模型具有有限的上下文窗口,在处理新信息时可能会遇到困难。OpenAI已承认,其最新框架GPT-4仍存在事实准确性问题,这可能导致误传信息。
影响不仅限于个别公司。例如,流行的开发者社区Stack Overflow由于ChatGPT生成的内容的低准确率已经暂时禁止使用,因为这可能误导寻找编码答案的用户。
在利用免费的生成式人工智能解决方案时,法律风险也需要考虑。GitHub的Copilot已经面临了侵入公共和开源代码库的受版权保护的代码片段的指控和诉讼。
Šedys解释说:“由于人工智能生成的代码可能包含属于另一家公司或个人的专有信息或商业秘密,使用这种代码的公司可能会对侵犯第三方权利承担责任。”
“此外,未能遵守版权法可能在被发现后影响公司的估值。”
尽管组织不可能实现对工作场所的总体监视,但个体的意识和责任至关重要。教育公众了解与生成式人工智能解决方案相关的潜在风险至关重要。
行业领导者、组织和个人必须合作解决工作场所生成式人工智能的数据隐私、准确度和法律风险。
来源 :https://www.artificialintelligence-news.com/2023/07/17/assessing-risks-generative-ai-workplace/