spatwei 分享了 SC Media 的一篇报道:正如本周早些时候在 BSides 拉斯维加斯举办的会议一样,人工智能的风险在 8 月 6 日至 7 日举行的 Black Hat USA 2025 安全大会上占据了主导地位。我们未能观看所有与人工智能相关的演讲,但我们确实观看了其中三个最有前景的演讲,以及 1Password 举办的一场关于人工智能的场外小组讨论。结论是:大型语言模型和人工智能代理极易受到攻击,而在当前对人工智能的开发、使用和盈利的热潮中,过去 25 年积累的许多安全经验已被遗忘。我们——不仅是网络安全行业,还包括任何将人工智能纳入其流程的组织——都需要了解人工智能的风险,并找到缓解这些风险的方法,以免我们再次遭受比尔·克林顿担任总统期间所面临的同类漏洞的困扰。“人工智能代理就像蹒跚学步的孩子。你必须时刻关注它们,确保它们不会做出愚蠢的事情,”1Password 高级研究计划总监、备受尊敬的网络安全资深人士 Wendy Nather 说道。 “我们也迎来了一大批新人,他们犯下了我们多年前犯过的愚蠢错误。” 她的另一位小组成员、Segura 首席安全推广员兼首席信息安全官 Joseph Carson 用一个恰如其分的复古比喻来描述使用人工智能的好处。“这就像在超级马里奥赛车里捡到蘑菇,”他说。“它能让你跑得更快,但不会让你变得更好。” 许多人工智能安全漏洞与早期 Web 时代的 SQL 注入风险类似。“为什么所有这些旧漏洞再次浮出水面?因为 GenAI 领域充斥着各种安全不良做法,”Kudelski Security 高级研究总监兼首席原型工程师 Nathan Hamiel 说。“部署这些工具会增加你的攻击面。你会在原本不存在漏洞的地方制造漏洞。” “生成式人工智能的范围过大。回答莎士比亚问题的人工智能也在帮助你开发代码。这种过度泛化会增加你的攻击面。”他补充道:“不要把人工智能代理视为高度复杂的超级智能系统。要把它们当成喝醉的机器人。”
在 Slashdot 上阅读更多内容。