企业越来越多地使用人工智能来生成包括新闻在内的媒体内容,以吸引客户。现在,我们甚至看到人工智能被用于新闻的“游戏化”——即创造与新闻内容相关的互动性。
无论好坏,人工智能正在改变新闻媒体的本质。如果我们想保护这个行业的完整性,我们就必须作出明智的选择。
想象一下,你正在读一篇关于悉尼一所著名学校一名年轻体育教练死亡的悲剧文章。
右边的一个方框里有一项民意调查,要求你推测死亡原因。民意调查是人工智能生成的。它旨在让你参与到故事中,因为这将使你更有可能对投票运营商提供的广告做出回应。
这种情况不是虚构的。《卫报》最近对Lilie James之死的报道中也提到了这一点。
根据一项许可协议,微软在其新闻应用程序和网站Microsoft Start上重新发布了《卫报》的报道。这项民意调查是根据文章的内容进行的,并与文章一起展示,但《卫报》没有参与或控制它。
如果这篇文章是关于即将到来的体育比赛的,那么对可能的结果进行民意调查是无害的。然而,这个例子表明,当人工智能开始与新闻结合时,就会引发一系列问题。
这件事引起了大家的愤怒。在给微软总裁Brad Smith的一封信中,卫报媒体集团首席执行官Anna Bateson表示,这是“对生成人工智能的不当使用”,对《卫报》和撰写该报道的记者造成了“重大声誉损害”。
很自然,投票被取消了。但这引发了一个问题:微软当初为什么让它发生?
得克萨斯大学媒体参与中心的研究发现,答案的第一部分是,民意调查和测验等补充新闻产品确实吸引了读者。
考虑到将人工智能用于这一目的的成本有多低,新闻企业(以及展示他人新闻的企业)似乎会继续这样做。
答案的第二部分是,在微软事件中没有“人类参与”,或人类参与有限。
大型语言模型的主要提供者——支持各种人工智能程序的语言模型——有经济和声誉上的动机来确保他们的程序不会造成伤害。Open AI的GPT模型和DAll-E、Google的PaLM 2和Meta的Llama 2都做出了重大努力,以确保他们的模型不会生成有害内容。
他们通常通过一个称为“强化学习”的过程来做到这一点,在这个过程中,人类策划对可能导致伤害的问题的反应。但这并不总是能防止模型产生不适当的内容。
生成式人工智能正在变得可访问且价格合理。这使得它对商业新闻业务具有吸引力,这些业务一直在遭受收入损失。因此,我们现在看到人工智能“写”新闻故事,使公司免于支付记者工资。
6月,新闻集团执行主席Michael Miller透露,该公司有一个小团队,每周使用人工智能撰写约3000篇文章。
从本质上讲,四人小组确保内容有意义,不包括“幻觉”。避免在文章中出现模型编造的虚假信息。
虽然这个消息可能是准确的,但同样的工具可以用来生成潜在的误导性内容,这些内容可以作为新闻传播,几乎与专业记者撰写的文章难以区分。
自4月以来,NewsGuard的一项调查发现,数百个以多种语言编写的网站大多或完全由人工智能生成,以模仿真实的新闻网站。其中一些包括有害的错误信息。
人们认为,这些充斥着广告的网站很可能是为了获得广告收入。
通常,许多大型语言模型都受到其底层训练数据的限制。例如,根据截至2021年的数据训练的模型将无法提供有关2022年世界事件的准确“新闻”。
然而,这种情况正在发生变化,因为现在可以对模型进行微调,以响应特定的源。最近几个月,一种名为“检索增强生成”的人工智能框架的使用已经发展到允许模型使用最近的数据。
通过这种方法,使用来自少数新闻通讯社的许可内容来创建新闻网站成为可能。
虽然从商业角度来看,这可能很方便,但这是人工智能将人类推出新闻创作和传播过程的又一种潜在方式。
编辑策划的新闻页面是一个有价值且经过深思熟虑的产品。让人工智能来做这项工作可能会让我们暴露在各种错误信息和偏见中(尤其是在没有人为监督的情况下),或者导致缺乏重要的本地化报道。
澳大利亚的《新闻媒体谈判准则》旨在为大型科技企业和媒体企业之间维持“公平竞争环境”。自从代码生效以来,生成人工智能的使用带来了第二次变化。
撇开点击率不谈,目前记者可以制作的新闻质量和人工智能可以制作的新闻质量之间没有可比性。
虽然生成式人工智能可以帮助记者完成工作,例如帮助他们整理大量内容,但如果我们开始将其视为替代品,我们就会失去很多东西。