研究人员发现了一种名为 Slopsquatting 的新供应链攻击,威胁行为者利用 GPT-4 和 CodeLlama 等人工智能编码工具生成的幻觉、不存在的包名称。这些可信但虚假的软件包几乎占测试样本的 20%,可以被攻击者注册来分发恶意代码。 CSO Online 报道:研究人员所说的 Slopsquatting 一词是由 Python 软件基金会 (PSF) 的驻场安全开发人员 Seth Larson 首次创造的,因为它与拼写错误技术相似。威胁行为者不像仿冒域名那样依赖用户的错误,而是依赖人工智能模型的错误。测试样品中推荐的大量包装被发现是假货,占 19.7%(205,000 个包装)。与 GPT 4 等商业模型 (5.2%) 相比,DeepSeek 和 WizardCoder 等开源模型出现幻觉的频率更高,平均为 21.7%。研究人员发现 CodeLlama(超过三分之一的输出产生幻觉)是最严重的违规者,而 GPT-4 Turbo(只有 3.59% 的幻觉)表现最好。这些包裹幻觉特别危险,因为它们被发现是持续的、重复的和可信的。当研究人员重新运行 500 个先前产生幻觉包的提示时,43% 的幻觉在连续 10 次重新运行中每次都会重新出现,其中 58% 的幻觉在不止一次运行中出现。该研究得出的结论是,这种持久性表明“大多数幻觉不仅仅是随机噪音,而是模型如何响应某些提示的可重复产物”。它补充说,这增加了它们对攻击者的价值。此外,这些幻觉的包名称被观察到“语义上令人信服”。其中 38% 的字符串与真实包具有中等相似度,这表明它们具有相似的命名结构。 “只有 13% 的幻觉是简单的差一个拼写错误,”Socket 补充道。该研究可以在 arXiv.org (PDF) 上的一篇论文中找到。
在 Slashdot 上阅读这个故事的更多内容。