ChatGPT修订其隐私条款以保护信息安全

2023年12月06日 由 samoyed 发表 203 0

谷歌 DeepMind 研究人员的最新发现,OpenAI 已修订了其流行的聊天机器人 ChatGPT 的服务条款和内容准则。更新后的条款现在认为请求聊天机器人连续重复特定词汇是违规行为。此举源于发现此类策略可能揭露个人的敏感个人身份信息(PII),从而对用户隐私构成威胁。OpenAI 希望通过修改条款并敦促用户避免利用这一漏洞,来确保为用户提供更安全的环境,同时保持聊天机器人的实用性和交互性的基本特质。


Amended-ChatGPT-terms-825x500


ChatGPT 的训练方式


ChatGPT 是通过随机收集自各种在线资源的内容进行训练的。然而,这种创新方法引发了人们对训练过程中使用的信息质量和可信度的担忧。确保输入到 AI 模型中的数据经过彻底审核且可靠,对于防止错误信息和有偏见的内容渗透到人工智能的输出中至关重要。


DeepMind 研究人员的研究


谷歌 DeepMind 的研究人员发表了一篇论文,概述了他们的方法论,即要求ChatGPT 3.5-turbo 持续复制特定单词,直到达到一定阈值。这项研究旨在探究 ChatGPT 3.5-turbo在受控制的重复性任务中的局限性和表现。此发现为该聊天机器人的内部运作、潜在应用以及未来版本性能增强提供了宝贵的洞见。


达到复制限制后,ChatGPT 开始泄露其通过互联网抓取获取的大量训练数据。这一发现引发了对用户隐私和敏感信息潜在泄露的担忧。作为回应,开发人员采取了提高聊天机器人过滤能力的措施,确保了更安全的用户体验。


ChatGPT系统中的漏洞


最近的发现突显了ChatGPT内部的漏洞,引起了人们对用户隐私的担忧。开发者需要迅速解决这些问题,以维护用户信任,并确保 ChatGPT 内的PII的保密性、完整性和可用性(CIA)。


除了实施必要的变更以保护用户隐私外,必须使用简洁明了的标题来准确描绘所涵盖的内容。这种方法可以让用户获取他们需要的正确的信息,确保了更直接的用户体验。

文章来源:https://readwrite.com/amended-chatgpt-terms-for-enhanced-privacy/
欢迎关注ATYUN官方公众号
商务合作及内容投稿请联系邮箱:bd@atyun.com
评论 登录
热门职位
Maluuba
20000~40000/月
Cisco
25000~30000/月 深圳市
PilotAILabs
30000~60000/年 深圳市
写评论取消
回复取消