生成式AI在几乎所有行业和应用领域都产生了深远影响。大型语言模型(LLMs)已经改变了自然语言处理,实现了对话代理和自动化内容生成。在医疗保健领域,生成式AI可以帮助药物研发,并提供个性化的身体和心理治疗建议。在创意领域,生成式AI可以生成艺术、音乐和设计作品,推动人类创造力的边界。在金融领域,它可以辅助风险评估、欺诈检测和算法交易。生成式AI的多功能和创新性将继续重新定义行业,并为未来带来新的可能性。
ChatGPT于2022年11月底首次上市,到12月份已经吸引了约2.66亿次访问,并在首5天获得了100万活跃用户 - 这是当时任何应用程序所取得的最高采用率纪录。根据分析公司Similarweb的数据,到2023年4月,该网站收到了约17.6亿次访问。在历史上,没有任何软件能像这样迅速和热情地被各行各业、各部门和各个职业的人所接受。
然而,全球企业发现自己无法为大规模、安全和可控的生成式AI使用提供支持,因为它们没有做好应对所带来挑战的准备。数据泄露的后果是巨大的,创新的数据保护解决方案加速、促进和确保安全使用已变得迫在眉睫。
幸运的是,技术解决方案是未来前进的最佳路径。即使企业已制定明确的政策来指导或阻止使用这项技术,生成式AI的效用仍能克服员工的安全顾虑。因此,“如何防止数据泄露”等问题变得无关紧要,因为员工在不考虑隐私问题的情况下继续使用生成式AI工具。例如,科技巨头三星最近报告称,其员工使用ChatGPT优化运营并创建演示文稿,导致三星的商业机密存储在ChatGPT服务器上。
尽管这类事件对企业来说令人担忧,但并没有阻止员工希望利用生成式AI提供的效率。根据Fishbowl的数据,70%的员工在使用ChatGPT进行工作时没有向管理层透露他们的使用情况。Cyberhaven的一份类似报告显示,11%的员工将机密公司信息输入到LLMs中。员工使用其他设备、虚拟私人网络(VPN)和其他生成式AI工具来规避公司对这些提高工作效率工具的访问限制。因此,大数据隐私保护已经成为一场大型“打地鼠”游戏。
许多生成式AI和LLM提供商仅依赖合同法律保证(如服务条款)来承诺不滥用暴露给提供商和其平台的生成式AI数据。针对这些提供商的诉讼变得昂贵、不确定且缓慢。由于使用泄露信息可能难以检测,许多诉讼原因可能未被发现。
在生成式AI时代,保护数据将需要持续的警惕、适应和积极的解决方案。通过采取以下步骤,可以准备组织,应对这个新时代带来的一切,并以自信和远见来把握机遇和应对挑战。
1.了解AI应用情况
对组织当前和潜在的生成式AI使用进行全面评估。包括IT、人力资源、法律、运营等部门,以及可能正在使用AI的其他部门,以及AI团队、隐私和安全专家。
记录当前(已批准和未批准的)正在使用的所有AI方式,例如搜索、摘要、聊天机器人、内部数据分析以及当前实施的任何AI工具。务必包括公司依赖的任何第三方AI系统(或使用嵌入式AI功能的系统)。
针对每个应用程序,确定潜在的数据风险。这包括机密信息和商业机密的暴露、安全漏洞、数据隐私问题、潜在的偏见可能性、错误信息传播的可能性,以及对员工或客户的负面影响。评估和优先处理风险,确定和优先处理缓解策略,并不断监控其有效性。
2.明确关注数据保护
尽管大家都在尽力保护安全,数据泄露仍然可能发生。除了数据治理和访问控制以防止组织内不必要的数据暴露外,还必须加入防护性解决方案,以防止未经保护的数据暴露给组织外部的生成式AI工具(未经保护的数据是以人类可理解的形式,例如纯文本或图像形式的数据)。与保持对纯文本数据的所有权的生成式AI公司合作。
3.对员工进行教育和培训
在解决如何防止数据泄露问题时,员工是至关重要的因素。投资于员工教育和培训,并鼓励他们熟悉与生成式AI相关的概念、工具和最佳实践,但不要依赖他们的绝对可靠性。培养一个既拥抱AI又意识到其影响并防范其固有风险的文化。
正如a16z的Marc Andreesen最近写道:“人工智能可能是我们文明创造的最重要和最好的东西之一,与电力和微芯片堪比。”现在清楚的是,商业未来将与生成式AI密不可分。
有能力利用生成式AI提供的优势,同时积极确保组织的未来。通过采取前瞻性的解决方案,可以确保数据保护,为开创革命性未来的道路铺平。