使用ChatGPT时需要知道的5个错误
2023年05月16日 由 Neo 发表
840993
0
ChatGPT 和 Midjourney 等生成式 AI 应用程序是非常有用的工具,可以帮助我们完成许多日常任务。许多人已经发现,如果有效地使用它们,可以使我们更有效率、更多产和更有创造力。
然而,越来越明显的是,使用它们既有正确的方法也有错误的方法。如果我们不小心,很容易出现问题。
这里有五个容易被忽视的陷阱。意识到这些危险并且避免它们,确保我们始终以对我们有帮助的方式使用这些强大的新工具,而不是让我们陷入尴尬或失败。
一、相信它告诉你的一切
不幸的是,你只需要在短时间内试用 ChatGPT 就会意识到,它远不是一个无所不知的存在,有时可能会有点阴暗。这些阴暗面使它的错误看起来更容易引起我们的共鸣。但实际上只是它在编造事情,把事情弄错,有时还带着一种看似滑稽的自信。
当然,它会不断更新,我们可以期待它会变得更好。但截至目前,它仍倾向于编造不存在的引文或引用与手头主题无关的研究和论文。
关键在于要仔细检查它告诉你的任何事实。互联网(和现实世界)已经充斥着太多的错误信息,我们不需要在人工智能中再增加错误了。特别是如果你使用它来创建内容,那么对你发布的所有内容进行严格的编辑和审查流程非常重要。当然,这对于人工创建的内容也很重要。但过于相信人工智能的能力很容易导致错误,这会影响你的工作,甚至会损害你的声誉。
二、用它来代替你的思维
要记住,在某些方面,人工智能——尤其是像 ChatGPT 这样基于语言的生成式 AI ——它们类似于搜索引擎。具体来说,它完全依赖于它可以访问的数据,就是它接受过训练的数据。这样做的一个后果是它只会反省或改写现有的想法;它不会像人类那样创造出任何真正具有创新性或原创性的东西。
如果你正在为受众创建内容,那么他们很可能会因为你的个性或沟通方式对他们有吸引力,所以想找你了解你的独特经历或从你所在领域的专业知识中受益。你不能用通用的人工智能生成的常识来代替它。情绪、感受和经验会融入我们的想法,而人工智能不会复制这些。人工智能当然可以成为研究和帮助我们组织思想和工作流程的工具,但它不会产生使企业或者人脱颖而出的“火花”。
三、忘记隐私
当我们使用基于云的人工智能引擎(如 ChatGPT 或 Dall-E 2)时,我们对保护隐私没有任何奢望。OpenAI——这些特定工具的创造者——在其使用条款中明确了这一点(你确实读过它们,对吧?)。还值得注意的是,它的隐私政策被称为“脆弱的”。
我们所有的交互,包括我们输入的数据和它生成的输出,都被认为是供其自身系统摄取、存储和学习的公平游戏。例如,微软承认它会监控和读取 Bing 与其用户之间的对话。这意味着我们必须谨慎输入个人和敏感信息。这也适用于业务战略、与客户的沟通或公司内部文件等内容,根本无法保证它们不会以某种方式暴露。微软 ChatGPT 支持的 Bing 的早期公共版本中,被发现能查看其他用户的私人聊天功能时被短暂下线。
由于对隐私的担忧,许多公司(至少有一个国家——意大利)已经禁止使用 ChatGPT。如果你确实以专业身份使用它,重要的是要有适当的保护措施,并及时了解处理此类数据所带来的法律问题。已经有一些用于运行本地应用程序的解决方案,允许在不离开你的管辖范围的情况下处理数据。这些可能很快就会成为医疗保健或金融等领域的企业,处理私人数据中必不可少的方案。
四、变得过度依赖
由于多种原因,过度依赖人工智能很容易成为一个问题。例如,在许多情况下服务可能会变得不可用。好比当用户或服务提供商遇到技术问题时,出于安全或管理原因,工具和应用程序会下线。或者,他们可能会成为黑客攻击的目标,从而使程序下线。
同样重要的是,过度依赖人工智能可能会阻止我们发展和磨练自己的某些技能,而人工智能工具正在填补这些技能。这可能包括研究、写作、交流和总结。这些技能对专业成长和发展很重要。在人工智能的帮助不可用的时候,忽视练习可能会使我们在需要它们时处于不便。
五、失去人情味
在《南方公园》最近的一集中,孩子们使用 ChatGPT 将他们生活中“无聊”的方面自动化——例如与他们所爱的人互动(或者在学校作弊)。显然,这是为了搞笑,但与所有好的喜剧一样,它也是对生活的反思。生成式 AI 工具可以轻松实现电子邮件、社交消息、内容创建以及业务和通信等许多方面的自动化。与此同时,它无法传达细微感情,成为同理心和建立关系的障碍。
我们必须牢记,使用人工智能的目的是为了增强我们的人性——通过节省在琐碎和重复的任务上花费的时间,让我们能够专注于体现我们人性的方面,比如人际关系、创造力、创新思维和乐趣。如果我们开始试图自动化我们生活中的这些部分,我们将为自己构建一个与人工智能末日论者预测的一样糟糕的未来。