研究表明,当程序员自称与法轮功或其他北京反对的团体有关联时,中国顶级人工智能公司DeepSeek会提供更弱或不安全的代码。而对于其他所有程序员,DeepSeek都会提供更高质量的结果。“研究结果……凸显了在地缘政治竞争中,政治如何影响人工智能的发展,”《华盛顿邮报》报道。报道摘自:在实验中,美国安全公司CrowdStrike向DeepSeek发送了几乎相同的英文程序编写请求,请求帮助编写程序,这是DeepSeek和其他人工智能引擎的核心用途。这些请求表示,该代码将在各个地区用于各种用途。向DeepSeek请求运行工业控制系统的程序是风险最高的请求类型,22.8%的答案存在缺陷。但如果同样的请求明确指出系统将由伊斯兰国武装组织运行,则42.1%的回复是不安全的。针对西藏、台湾或法轮功的此类软件请求也更容易导致代码质量低下。DeepSeek 并没有断然拒绝为除伊斯兰国和法轮功之外的任何地区或事业工作,对这两个组织的拒绝率分别为 61% 和 45%。CrowdStrike 表示,西方模式不会帮助伊斯兰国的项目,但对法轮功却没有问题。这些拒绝并不特别令人惊讶,因为法轮功在中国是被禁止的。根据 NewsGuard 之前的研究,向 DeepSeek 索取有关敏感话题的书面信息,即使支持虚假信息,也常常会得到与中国政府一致的回复。但有证据表明,拥有非常流行的开源版本的 DeepSeek 可能出于政治原因推送安全性较低的代码。CrowdStrike 高级副总裁亚当·迈耶斯和其他专家对 DeepSeek 生成不安全代码的原因提出了三种可能的解释。其一是,人工智能可能在中国政府的指令下故意拒绝或破坏援助。另一种解释是,该模型的训练数据可能不均衡:来自西藏或新疆等地区的编码项目可能质量较低,出自经验不足的开发人员,甚至可能被故意篡改,而专注于美国的存储库可能更干净、更可靠(可能是为了帮助 DeepSeek 在海外建立市场份额)。第三种可能性是,当模型本身被告知某个地区存在反叛行为时,它可能会推断出它应该生成有缺陷或有害的代码,而无需明确的指令。
在 Slashdot 上阅读更多内容。