如果说Google 的 Bard 聊天机器人的非正式亮相有任何迹象的话,那就是错误信息即将变得更糟。该公司本周在 Twitter 上发布了一则广告,展示了自然语言人工智能模型显示有关詹姆斯韦伯太空望远镜 (JWST) 的虚假信息。
在广告中(通过路透社),一个简短的 GIF 显示了与巴德的问答示例。 “我可以告诉我 9 岁的孩子关于詹姆斯·韦伯太空望远镜的哪些新发现?”查询读取。机器很快吐出三个想法,包括最后一个想法,“JWST 拍摄了我们太阳系外行星的第一张照片。这些遥远的世界被称为“系外行星”。 Exo 的意思是“来自外部”。虽然关于系外行星的说法是正确的,但第一部分说 JWST 拍摄了它们的第一张照片是错误的。 2004 年,这一荣誉属于欧洲南方天文台的甚大望远镜 (VLT),美国宇航局证实了这一点。
Bard 是一项实验性对话式 AI 服务,由 LaMDA 提供支持。使用我们的大型语言模型构建并利用网络信息,它是好奇心的启动板,可以帮助简化复杂的主题 → https://t.co/fSp531xKy3 pic.twitter.com/JecHXVmt8l
– 谷歌 (@Google) 2023 年 2 月 6 日
尽管 Twitter 广告中的错误信息不太可能直接损害任何东西,但很容易将这个错误视为将自然语言聊天机器人发布到野外的风险的预兆。它与CNET决定使用 AI 聊天机器人撰写财务建议文章相似;他们也 错误百出。
因为聊天机器人非常正确——并且非常自信地吐出答案——任何不对他们的回答进行事实核查的人都可能留下错误的信念。考虑到(非 AI 驱动的)错误信息已经在社会上散布的混乱,在人们相信它能够可靠准确地生成事实信息之前发布这种经常令人兴奋的技术——甚至逃脱谷歌的文案编辑——可能会让我们陷入困境疯狂的旅程。
原文: https://www.engadget.com/google-bard-chatbot-false-information-twitter-ad-165533095.html?src=rss