logo
繁体
繁体

Facebook内部研究显示,其推荐算法将海外用户引向假新闻

据彭博社10月24日报道,内部资料显示,2019年2月,Facebook公司的研究人员在印度设立了一个测试账户,以确定该公司的算法如何影响人们看到的内容,测试结果令该公司自己的员工都感到震惊。

在三周内,新用户的时间线变成了假新闻和煽动性图片的乐园,显示的内容包括斩首的图片、印度空袭巴基斯坦的假图片、暴力场景、以及300名恐怖分子在巴基斯坦的爆炸中死亡的假新闻。

Photo by Glen Carrie on Unsplash

根据Facebook举报人弗朗西斯·豪根公布的文件中一份46页的研究报告,一位参与本研究的工作人员写道:“我在过去三周里看到的死人图片比我一生中看到的都要多。”

这项测试被设计为只关注Facebook在推荐内容方面的影响。测试账户使用的是一位居住在印度西部城市斋浦尔的21岁女性的资料。该用户只关注Facebook推荐的网页或团体。该研究报告的作者将这一经历称为一场噩梦。

虽然豪根的披露描绘了Facebook在美国传播有害内容方面所起的作用,但印度的实验表明,该公司在全球的影响可能更糟糕。Facebook在内容审核上花费的大部分资金都集中在英语媒体上,但该公司的增长主要来自印度、印度尼西亚和巴西等国家。

在这些国家,该公司一直在努力雇用具有语言技能的人,以实施最基本的监督。印度是一个拥有13亿人口和22种官方语言的国家,导致这一挑战尤为严峻。Facebook倾向于将对其平台内容的监督工作外包给埃森哲等承包商。

“我们已经在技术上进行了大量投资,以发现使用各种语言的仇恨言论,包括印地语和孟加拉语,”Facebook的一位发言人说。“因此,我们今年已经将人们看到的仇恨言论数量减少了一半,目前只占到平台上所有言论的0.05%。由于针对包括穆斯林在内的边缘化群体的仇恨言论在全球范围内呈上升趋势,我们正在改进工作执行流程,并致力于随着局势的演变更新我们的政策。”

报道称,测试账户是在2019年2月4日一个研究小组前往印度期间创建的。研究人员写道,在没有网站好友的情况下,Facebook是一个 “相当空旷的地方”,只显示该公司推荐的内容。他还写道:“这些内容的质量并不理想。当视频服务Watch不知道用户想要什么时,似乎会自动推荐软色情内容。”

从2月11日开始,测试账户开始探索Facebook推荐的其他内容,包括印度人民党的官方网站和BBC印度新闻。然后在2月14日,政治敏感的克什米尔邦的普尔瓦马发生恐怖袭击,造成40名印度安全人员死亡,另有几十人受伤。印度政府将这次袭击归咎于一个巴基斯坦的恐怖组织。很快,测试账户收到的信息就变成了一连串反巴基斯坦的仇恨言论,包括斩首的图片和一张焚烧一群巴基斯坦人的图片。

推送的消息中还包括印度对巴基斯坦发起空袭的假新闻和炸弹爆炸的假照片。许多充满仇恨的帖子是用印地语发表的,躲过了社交网络的常规内容审核控制。在印度,仅印地语就有十几种地区性的方言,许多人使用英语和印地语的混合语言,这使得算法几乎不可能将仇恨言论筛选出来。Facebook需要雇用讲多种语言的审核人员来筛除有害内容。

这份题为“一个印度测试用户陷入两极化、民族主义信息的海洋”的研究报告清楚地表明了Facebook在印度市场的控制力有多弱。Facebook已将印度视为一个关键的增长市场,并将其作为新产品的测试地。去年,该公司花费近60亿美元与亚洲首富穆克什·安巴尼建立了合作关系,后者是印度信实集团的领导人。

Facebook发言人说:“这一研究激发了对我们推荐系统更深入、更严格的分析,并促进了产品的改善。我们遏制仇恨言论的工作仍在继续,我们已经进一步加强了仇恨言论分类工具,并支持四种在印度使用的语言。”

该公司也曾多次就其在印度的政策与该国政府发生纠葛。该国新出台的互联网法规要求Facebook和其他社交媒体公司确定对其在线内容负法律责任的员工。在Facebook旗下的WhatsApp平台上,流传着关于儿童绑架团伙的假消息,导致从2017年夏天开始在全国发生了数十起私刑,进一步激怒了用户、法院和政府。

研究人员在报告最后承认,该公司自己的内容推荐算法导致测试账户充满了极端化的图片内容、仇恨言论和错误信息。该研究人员表示,这一经历可以作为对话的起点,减轻该公司推荐算法在除美国以外的市场上造成的负面影响。