大约四分之一的美国人通过YouTube获取新闻。拥有数十亿用户和无数小时内容的YouTube是世界上最大的在线媒体平台之一。
近年来,媒体上有一个流行的说法,即高度党派化、以阴谋论驱动的YouTube频道的视频使美国年轻人变得极端,而YouTube的推荐算法则将用户引向越来越极端的内容。
然而,宾夕法尼亚大学计算社会科学实验室(CSSLab)的一项新研究发现,用户自身的政治兴趣和偏好在他们选择观看的内容中起主要作用。事实上,即使推荐功能对用户的媒体消费有任何影响,这种影响也是温和的。
“平均而言,完全依赖推荐器会导致消费更少党派的内容,”该研究的主要作者、CSSLab的副研究员Homa Hosseinmardi说。
为了确定YouTube的推荐算法对用户观看内容的真正影响,研究人员创建了机器人,这些机器人一部分遵循推荐引擎,另一部分完全忽略它们。为此,研究人员创建了受训于2021年10月至2022年12月期间收集的一组87988名真实用户的YouTube观看历史的机器人。
这些机器人被分配了个性化的YouTube账户,以便可以追踪它们的观看历史,并使用与每个视频相关的元数据来估计它们观看的内容的党派倾向。
在两个实验中,每个拥有自己YouTube账户的机器人都经历了一个“学习阶段”——它们观看了相同的视频序列,以确保它们都向YouTube的算法展示了相同的偏好。
接下来,机器人被分成几组。一些机器人继续追踪其训练所用的真实用户的观看历史;另一些机器人则被指定为实验性的“反事实机器人”(counterfactual bots)——遵循特定规则设计的机器人,旨在将用户行为与算法影响分开。
在第一个实验中,经过学习阶段后,控制机器人继续观看用户历史中的视频,而反事实机器人则偏离了用户的真实行为,只选择推荐视频列表中的视频,而不考虑用户偏好。
一些反事实机器人总是选择侧边栏推荐中的第一个(“下一个”)视频;另一些随机选择侧边栏推荐中列出的前30个视频之一;还有一些随机选择主页推荐中前15个视频之一。
研究人员发现,与相应的真实用户相比,反事实机器人平均消费了较少党派倾向的内容——对于党派倾向内容消费较多的人来说,这一结果更为显著。
Hosseinmardi说:“相对于算法的建议,这种差距对应于用户对此类内容的内在偏好。”“这项研究对消费极左内容的机器人,或者当机器人订阅政治党派光谱极端一侧的频道时,都表现出类似的调节作用。”