研究表明:YouTube算法并未使人们变得极端

2024年02月21日 由 samoyed 发表 200 0

大约四分之一的美国人通过YouTube获取新闻。拥有数十亿用户和无数小时内容的YouTube是世界上最大的在线媒体平台之一。


近年来,媒体上有一个流行的说法,即高度党派化、以阴谋论驱动的YouTube频道的视频使美国年轻人变得极端,而YouTube的推荐算法则将用户引向越来越极端的内容。


youtube


然而,宾夕法尼亚大学计算社会科学实验室(CSSLab)的一项新研究发现,用户自身的政治兴趣和偏好在他们选择观看的内容中起主要作用。事实上,即使推荐功能对用户的媒体消费有任何影响,这种影响也是温和的。


“平均而言,完全依赖推荐器会导致消费更少党派的内容,”该研究的主要作者、CSSLab的副研究员Homa Hosseinmardi说。


为了确定YouTube的推荐算法对用户观看内容的真正影响,研究人员创建了机器人,这些机器人一部分遵循推荐引擎,另一部分完全忽略它们。为此,研究人员创建了受训于2021年10月至2022年12月期间收集的一组87988名真实用户的YouTube观看历史的机器人。


这些机器人被分配了个性化的YouTube账户,以便可以追踪它们的观看历史,并使用与每个视频相关的元数据来估计它们观看的内容的党派倾向。


在两个实验中,每个拥有自己YouTube账户的机器人都经历了一个“学习阶段”——它们观看了相同的视频序列,以确保它们都向YouTube的算法展示了相同的偏好。


接下来,机器人被分成几组。一些机器人继续追踪其训练所用的真实用户的观看历史;另一些机器人则被指定为实验性的“反事实机器人”(counterfactual bots)——遵循特定规则设计的机器人,旨在将用户行为与算法影响分开。


在第一个实验中,经过学习阶段后,控制机器人继续观看用户历史中的视频,而反事实机器人则偏离了用户的真实行为,只选择推荐视频列表中的视频,而不考虑用户偏好。


一些反事实机器人总是选择侧边栏推荐中的第一个(“下一个”)视频;另一些随机选择侧边栏推荐中列出的前30个视频之一;还有一些随机选择主页推荐中前15个视频之一。


研究人员发现,与相应的真实用户相比,反事实机器人平均消费了较少党派倾向的内容——对于党派倾向内容消费较多的人来说,这一结果更为显著。


Hosseinmardi说:“相对于算法的建议,这种差距对应于用户对此类内容的内在偏好。”“这项研究对消费极左内容的机器人,或者当机器人订阅政治党派光谱极端一侧的频道时,都表现出类似的调节作用。”

文章来源:https://techxplore.com/news/2024-02-youtube-algorithm-isnt-radicalizing-people.html
欢迎关注ATYUN官方公众号
商务合作及内容投稿请联系邮箱:bd@atyun.com
评论 登录
热门职位
Maluuba
20000~40000/月
Cisco
25000~30000/月 深圳市
PilotAILabs
30000~60000/年 深圳市
写评论取消
回复取消