OpenAI陷入隐私问题的困境

2023年09月14日 由 samoyed 发表 304 0

AI模型冒充人类的行为让你在互联网上进行的所有搜索、阅读或点击都付出了代价。无论是你的Instagram照片,与Bing等聊天机器人的对话还是电子邮件,它们都为大型科技公司提供了大量的个人数据。尽管硅谷一直在利用公众的数据,但人们特别对OpenAI这个著名公司的秘密活动提出了质疑。


OpenAIa__s-Plan-To-Scare-Regulators-Has-Backfired-by-Anirudh-_副本


这家位于加利福尼亚州的人工智能研究实验室今年早些时候发布了一份98页的关于GPT-4的技术报告,该报告被认为在任何有意义的方面都不透明或“开放”。由Sam Altman领导的公司没有透露任何关于架构(包括模型大小)、硬件、数据集规模或训练方法的细节,使其成为迄今为止最为秘密的发布之一。


华盛顿大学的语言学教授Emily M. Bender在推特上表示,这种保密并不让她感到惊讶。“他们对最基本的风险缓解策略故意视而不见,同时还声称自己是为了人类的利益而努力工作,”她在推特上写道。


对于现在发现很难知道自己的工作是否会被代替的人来说,这种保密使情况变得不公平。此外,要在法庭上证明自己的知识产权和版权几乎是不可能的任务,这使得OpenAI在法律上有了合法但不公平的优势。


这篇声称公司不想透露细节以保持其在市场上的主导地位的报道引发了强烈反响。OpenAI有错,其他构建这些模拟人类工作、娱乐和创造的AI模型的公司也有错。我们一直只是听信这些公司的话,结果导致隐私陷入了混乱。


理论上的安全、私密和安全


经过一些初期的挣扎,OpenAI通过提供有限的控制方式成功避免了被意大利驱逐出境的命运。根据欧盟法律,即使是接受过公众Gmail数据培训的谷歌写作助手Smart Compose也默认关闭。科技公司经常会遇到一些法律上的小困难,但最终都能通过赔款、找到法律漏洞或调整公司的指导方针来解决问题。


在不到十年的时间里,包括谷歌、苹果、Meta和亚马逊在内的科技公司共收到了超过300亿美元的罚款。法国竞争管理局主席Isabelle da Silva公开表示,罚款不仅仅是科技巨头“经营成本”的一部分。“罚款是确定行为错误的元素,”Silva说。


《华盛顿邮报》的Geoffrey A. Fowler最近的一篇调查报导提出了一个发人深省的问题:“我们的哪些数据是禁区,哪些不是禁区?”这篇调查性报导深入探讨了谷歌等谷歌公司如何使用你的数据,而你几乎无法控制。他进一步指出,大部分答案都包含在诉讼、调查以及一些新的法律中。但与此同时,大型科技公司正在制定自己的规则。


划清界限


关于科技公司及其Orwellian式的大规模数据收集的争论一直以来就存在。他们拒绝放弃这些做法往往引发了愤怒,最终导致当局介入。


Mozilla发起了一项号召这家软件巨头交代的运动。公告中表示:“如果连9位隐私专家都无法理解微软如何处理你的数据,那么普通人有什么机会?”作为这项运动的一部分,有4名律师、3名隐私专家和2名活动人士审查了软件巨头微软即将在9月30日生效的更新的服务协议。令人惊讶的是,没有一位专家能够确定微软是否计划使用你的个人数据。


一年前,联邦贸易委员会宣布了一个计划,以打击其认为是“有害商业监视”或“收集、分析和从人们身上获取信息的业务”。自那时以来,该案件没有任何进展。


科技公司在“改善产品”和窃取之间只有一线之隔。在更阴暗的一面,这些人工智能公司一直与全球的内部道德学家或其他道德学家进行斗争。


尽管OpenAI最初是一个非盈利的倡导者,但它已经发生了变化。该公司的ChatGPT给了艺术家和作者足够的理由将这家初创公司告上法庭。但其保密的做法使其在其他公司面前占据了优势。具有讽刺意味的是,OpenAI的前政策总监Jack Clark在2019年GPT-2发布时表示,与其假装看不见AI的危险,“不如在它们到来之前谈论AI的危险”。

文章来源:https://analyticsindiamag.com/why-openai-needs-to-be-singled-out-in-the-troubled-tech-valley/
欢迎关注ATYUN官方公众号
商务合作及内容投稿请联系邮箱:bd@atyun.com
评论 登录
热门职位
Maluuba
20000~40000/月
Cisco
25000~30000/月 深圳市
PilotAILabs
30000~60000/年 深圳市
写评论取消
回复取消