肯尼亚的民族凝聚力监督机构国家凝聚力与融合委员会 (NCIC) 已指示 Facebook 在 7 天内停止在其平台上传播仇恨言论,否则将在东非国家面临暂停。
监管机构正在对倡导组织 Global Witness 和合法非营利公司 Foxglove 的 报告做出反应,该公司指责 Facebook 无法检测到仇恨言论广告。这是随着该国全国大选的临近。
Global Witness 的报告证实了 NCIC 自己的调查结果,即 Facebook 的母公司 Meta 在删除和防止仇恨内容方面进展缓慢,从而助长了已经动荡的政治环境。 NCIC 现在呼吁 Meta 在选举之前、期间和之后增加节制,同时给它一周的时间来遵守或在该国被禁止。
“Facebook 违反了我们国家的法律。他们让自己成为仇恨言论和煽动、错误信息和虚假信息的载体,”NCIC 专员 Danvas Makori 说。
Global Witness 和 Foxglove 还呼吁 Meta 停止政治广告,并使用“打破玻璃”措施——它在 2020 年美国大选期间用来阻止错误信息和内乱的更严格的紧急缓和方法。
在肯尼亚,Facebook 的渗透率为82% ,使其成为仅次于 WhatsApp 的第二大社交网络。
Facebook 的人工智能模型无法检测到暴力呼吁
为了验证 Facebook 声称其人工智能模型可以检测仇恨言论的说法,全球见证提交了 20 条用英语和斯瓦希里语呼吁暴力和斩首的广告,除一个外,所有广告均获得批准。人权组织表示,它使用广告是因为与帖子不同,它们经过了更严格的审查和审核程序。他们还可以在广告上线之前删除广告。
“我们提交的所有广告都违反了 Facebook 的社区标准,属于仇恨言论和基于种族的暴力呼吁。大部分言论都是非人性的,将特定的部落群体与动物进行比较,并呼吁强奸、屠杀和斩首,”全球证人在一份声明中说。
根据调查结果,全球见证组织的数字威胁民主运动的负责人艾娃·李说:“Facebook 有能力建立或破坏民主国家,但我们一次又一次地看到该公司将利润置于人之上。”
“我们震惊地发现,即使在声称在肯尼亚大选之前改善其系统并增加资源之后,它仍然在批准公开呼吁种族暴力的呼声。这不是一劳永逸。在过去的几个月里,我们在缅甸和埃塞俄比亚也看到了同样的无法正常运作的情况。 Facebook 对肯尼亚大选以及从巴西到美国中期选举等世界各地即将举行的选举不采取行动的可能后果是可怕的。”
除其他措施外,全球见证呼吁 Facebook 加倍加强内容审核。
作为回应,这家社交媒体巨头表示,它正在对人员和技术进行投资,以阻止错误信息和有害内容。
该公司 表示,它“已经聘请了更多的内容审查员来审查我们应用程序中 70 多种语言的内容——包括斯瓦希里语。”在截至 4 月 30 日的六个月内,该公司报告称删除了超过 37,000 条违反仇恨言论政策的内容,以及另外 42,000 条在 Facebook 和 Instagram 上宣传暴力和煽动的内容。
Meta 告诉 TechCrunch,它还与选举委员会和民间社会组织等公民利益相关者密切合作,以了解“Facebook 和 Instagram 如何成为公民参与的积极工具,以及他们在使用我们的平台时可以采取哪些措施来保持安全。”
Twitter 和最近的 TikTok 等其他社交网络也因没有在调节内容和阻止仇恨言论的传播方面发挥更积极的作用而备受关注,仇恨言论被认为会加剧该国的政治紧张局势。
就在上个月,Mozilla 基金会的这项研究发现 TikTok 在肯尼亚助长了虚假信息。 Mozilla 在审查了 130 个高度关注的视频后得出结论,这些视频分享了充满仇恨言论、煽动和政治虚假信息的内容——这与 TikTok 反对仇恨言论和分享歧视性、煽动性和合成内容的政策相矛盾。
在 TikTok 的案例中,Mozilla 得出的结论是,内容版主不熟悉该国的政治背景是一些煽动性帖子未被删除的主要原因之一,从而导致虚假信息在社交应用程序上传播。
在 8 月 9 日的民意调查前夕,政治家和公民的激烈政治讨论、分歧意见和公然仇恨言论增加,因此呼吁社交媒体平台采取更严格的措施。
原文: https://techcrunch.com/2022/07/29/facebook-risks-ban-in-kenya-for-failing-to-stop-hate-speech/