2020 年,维基百科社区卷入丑闻当得知一名美国青少年用他们不会说的语言写了 27,000 篇文章时。这一集提醒人们,在线百科全书并不是一个完美的信息来源。有时人们会出于恶意尝试编辑 Wikipedia 条目,但事实错误经常来自一些善意的人犯了错误。
这是维基媒体基金会最近与Facebook 母公司 Meta 合作解决的问题。两人将目光投向了引用。维基百科脚注的问题在于平台的志愿编辑几乎无法验证。随着网站的增长超过17,000每个月的文章,无数的引文不完整、缺失或完全不准确。
Meta 开发了一种人工智能模型,可以自动大规模扫描引文以验证其准确性。当它发现一个来源不佳的段落时,它还可以建议替代引用。当维基百科的人工编辑评估引用时,他们依赖常识和经验。当 AI 执行相同的工作时,它会使用自然语言理解 (NLU) 转换模型来尝试理解句子中单词和短语的各种关系。 Meta 的Sphere数据库,包含超过1.34 亿个网页,作为系统的知识索引。当它检查文章中的引用时,该模型旨在找到一个单一的来源来验证每一个声明。
为了说明 AI 的能力,Meta 分享了一个不完整引用的示例,该模型在 Wikipedia 页面上找到黑脚邦联.在著名的黑脚人部分下,文章提到了乔·希普,他是第一位争夺 WBA 世界重量级冠军头衔的美洲原住民。链接的网站没有提到 Hipp 或拳击。搜索 Sphere 数据库,该模型在Great Falls Tribune 2015 年的一篇文章中找到了更合适的引用。这是模型标记的段落:
1989 年,在他职业生涯的暮年,[Marvin] Camel 与 Blackfeet Nation 的 Joe Hipp 交战。希普成为第一个挑战世界重量级冠军的美洲原住民,他说这场比赛是他职业生涯中最奇怪的一场。
上述段落值得注意的是它没有明确提到拳击。由于其自然语言功能,Meta 的模型找到了合适的参考。该工具有朝一日可以帮助解决 Facebook 的错误信息问题。 “更一般地说,我们希望我们的工作可用于协助事实核查工作并提高在线信息的总体可信度,”该模型的创建者说.同时,Meta希望建立一个维基百科编辑可以用来系统地验证和更正脚注的平台。
原文: https://www.engadget.com/meta-wikipedia-citiation-ai-sphere-192511154.html?src=rss