据《华盛顿邮报》报道,一位房地产开发商在谷歌上搜索了一家邮轮公司的客服电话,并拨打了谷歌人工智能概览中显示的号码。“他与一位知识渊博的客服代表交谈,并提供了他的信用卡信息,”《华盛顿邮报》记者指出——但第二天,他“看到了可疑的信用卡账单,意识到自己被一个冒充皇家加勒比客服的骗子骗了”。《华盛顿邮报》记者还发现,同一个电话号码“似乎冒充了其他邮轮公司的热线,并出现在谷歌和ChatGPT上”(包括迪士尼和嘉年华的公主号热线):他遭遇了一场典型的骗局,该骗局明显是人工智能的变种,针对的是那些在谷歌上搜索航空公司和其他企业客服热线的旅行者和其他用户……这位客服代表知道皇家加勒比在威尼斯的班车费用和接送地点。 [并且在被问及支付某些费用和小费时“给出了令人信服的解释”。] 这位代表提出免除班车费用…… 这类骗局通常是这样运作的:坏人在网上评论网站、留言板和其他网站上发帖,声称他们控制的号码属于某家公司的客服中心。当你在谷歌上搜索时,谷歌的技术会寻找相关且可信信息的线索,包括在线建议。如果骗子控制的号码在网上被重复说成是真的次数足够多,谷歌可能会向搜索商家信息的用户推荐这些号码。谷歌是骗子的傀儡——而我们才是最终的受害者。谷歌的人工智能概览和OpenAI的ChatGPT可能会使用与谷歌搜索引擎类似的线索,从网络上收集信息。这使得它们成为旧式冒名号码骗局的新AI傀儡。 “我见过太多类似的针对谷歌用户的欺骗手段,我主要责怪该公司未能充分保护其重要的信息门户,”这位记者总结道(并补充道:“两位了解谷歌内部运作的专家也是如此。”)。《华盛顿邮报》目前建议读者“对谷歌搜索结果或聊天机器人中的电话号码保持警惕”。记者联系到一位谷歌发言人寻求置评,他告诉《华盛顿邮报》,他们已对记者发现的几个冒名顶替的电话号码“采取行动”。该发言人还表示,谷歌将继续“致力于更广泛的改进”,以“解决类似这类较为罕见的查询”。OpenAI 表示,ChatGPT 提到的许多包含虚假邮轮号码的网页似乎已被删除,“在源头删除滥用内容后”,其信息更新可能需要一些时间。与此同时,据《华盛顿邮报》报道,收到虚假收费的男子现已取消了他的信用卡,收费也已撤销。回顾自己的经历,他告诉《华盛顿邮报》的读者:“我不敢相信自己竟然上当了。要小心。”
在 Slashdot 上阅读更多内容。