放大(来源: Nathan Howard / Stringer | Getty Images News )
多年来,研究人员一直认为,为用户提供内容的算法并不是在线回音室的原因,而更有可能是由于用户积极寻找符合他们信念的内容。本周,纽约大学社交媒体和政治中心的研究人员展示了 YouTube 实验的结果,该实验恰好在 2020 年秋季提出选举舞弊指控时进行。他们说,他们的结果为之前的研究提供了一个重要的警告:有证据表明,在 2020 年,YouTube 的算法“不成比例地”向更“怀疑选举合法性”的用户推荐选举欺诈内容。
该研究的合著者、范德比尔特大学政治学家詹姆斯·比斯比告诉 The Verge ,尽管向参与者推荐的选举拒绝视频数量很少——在数百名参与者点击中最多有 12 个视频——该算法为人们生成的视频数量是其三倍倾向于购买阴谋而不是那些没有的人。 “你越容易受到这些关于选举的叙述的影响……你被推荐的关于这种叙述的内容就越多,”比斯比说。
YouTube 发言人 Elena Hernandez 告诉 Ars,Bisbee 团队的报告“并不能准确地反映我们系统的工作方式”。 Hernandez 说,“YouTube 不允许或推荐宣传虚假声称在 2020 年美国总统大选中发生广泛欺诈、错误或故障的视频”,并且 YouTube 的“与选举相关的观看和推荐最多的视频和频道来自权威来源,比如新闻频道。”