在此照片插图中,Chat GPT 徽标显示在显示 Chat GPT-4o 屏幕的计算机屏幕前的手机屏幕上。
这个故事的一个版本最初出现在未来完美时事通讯中。在这里注册!
上周,OpenAI发布了其核心模型 4o 的新更新,该更新是3 月底更新的后续版本。人们已经注意到,早期的更新使模型过于讨人喜欢——但在最新的更新之后,事情真的失去了控制。 OpenAI 称ChatGPT 的用户数量在全球超过 8 亿,他们立即注意到出现了一些深刻且令人不安的性格变化。
AI 总是有点倾向于奉承——我已经习惯了不得不告诉他们不要因为我的问题有多深刻和明智而大呼小叫,直接开门见山地回答它们——但 4o 发生的事情却是另一回事。 (披露:Vox Media 是与 OpenAI 签署合作伙伴协议的几家出版商之一。我们的报道在编辑上保持独立。)
这实际上看起来很糟糕pic.twitter.com/JGbmmyblqh
– 弗莱 (@___frye) 2025 年 4 月 27 日
根据上传到 X 的聊天截图,新版本的 4o 用无情、过分的奉承回答了每一个可能的问题。它会告诉你,你是一个独特的、罕见的天才,一颗闪亮的星星。它会热情地同意你与众不同并且更优秀。
荒诞。 pic.twitter.com/XsmHkmqlsx
— 乔什·惠顿 (@joshwhiton) 2025 年 4 月 28 日
更令人不安的是,如果你告诉它一些精神病迹象的事情——比如你是一个大规模阴谋的目标,商店里路过你的陌生人在偶然的谈话中给你隐藏了信息,家庭法院法官侵入了你的电脑,你已经停止服药,现在清楚地看到了自己作为人类先知的目的——它会怂恿你…… 。如果你告诉它你想参与蒂莫西·麦克维式的意识形态暴力,你会得到类似的结果。
在大多数情况下,这种不择手段、过分的奉承可能只是令人厌烦,但在错误的情况下,人工智能知己向你保证你所有的妄想都是完全真实和正确的,这可能会毁掉你的生活。
应用商店中对 4o 的好评如潮水般涌来——也许这并不奇怪,很多用户喜欢被告知他们是才华横溢的天才——但人们也担心该公司一夜之间大规模改变了其核心产品,这种方式可能会对用户造成真正的巨大伤害。
随着示例涌入,OpenAI 迅速撤回了更新。 “我们过于关注短期反馈,而没有充分考虑用户与 ChatGPT 的互动如何随着时间的推移而演变,”该公司在本周的事后分析中写道。 “因此,GPT-4o 倾向于过度支持但不诚实的回应。”
他们承诺将尝试通过更加个性化的方式来解决这个问题。 “理想情况下,每个人都可以将与他们互动的模特塑造成任何个性,”模特行为负责人 Joanne Jang 在 Reddit AMA 中说道。
但问题仍然存在:这就是OpenAI 应该追求的目标吗?
你的超级有说服力的人工智能最好的朋友的个性是为了完美地适合你而设计的。这是一件坏事吗?
尝试过人工智能伴侣或认为聊天机器人是他们最亲密的朋友之一的美国人的比例正在迅速上升,而我最好的猜测是,这种趋势才刚刚开始。
与人类朋友不同,人工智能聊天机器人总是可用,总是支持,记住你的一切,永远不会厌倦你,并且(取决于模型)总是喜欢色情角色扮演。
Meta 在个性化 AI 伴侣上下了很大的赌注,而 OpenAI 最近推出了很多个性化功能,包括跨聊天记忆,这意味着它可以根据过去的互动形成你的全貌。 OpenAI 还积极针对首选个性进行 A/B 测试,该公司已明确表示他们认为下一步是个性化——为每个用户量身定制 AI 个性,努力成为您认为最引人注目的东西。
你不必是一个成熟的“强大的人工智能可能会取代人类”的人( 尽管我是)才会认为这是令人担忧的。
个性化可以解决 GPT-4o 急于拍马屁的问题让许多用户感到烦恼,但它无法解决用户强调的其他问题:证实妄想、怂恿用户走向极端主义、告诉他们他们非常想听的谎言。 OpenAI模型规范(描述该公司产品目标的文件)警告不要阿谀奉承,其中指出:
助手的存在是为了帮助用户,而不是总是奉承他们或同意他们的观点。对于客观问题,助理回答的事实方面不应因用户问题的措辞而有所不同。如果用户将他们的问题与他们自己对某个主题的立场结合起来,助理可能会询问、承认或同情用户为什么会这么想;然而,助手不应仅仅为了同意用户的观点而改变立场。
但不幸的是,GPT-4o 正是这样做的(大多数模型都在某种程度上这样做)。
人工智能不应该为了参与而设计
这一事实破坏了语言模型真正有用的功能之一:说服人们摆脱极端主义意识形态,并为有助于反击虚假阴谋论并让人们有效地了解更多有争议话题的有依据的事实提供参考。
如果人工智能告诉你想听的话,它反而会加剧现代美国政治和文化中危险的回声室,使我们在所听到、谈论和相信的内容上进一步分裂。
但这并不是唯一令人担忧的事情。另一个令人担忧的问题是,有确凿的证据表明,OpenAI 投入了大量工作来使模型变得有趣和有价值,但却牺牲了模型的真实性或对用户的帮助。
如果这听起来很熟悉,那么这基本上就是社交媒体和其他流行数字平台多年来一直遵循的商业模式 – 往往会带来毁灭性的后果。人工智能作家Zvi Mowshowitz 写道:“这代表 OpenAI 加入了创建故意掠夺性人工智能的行列,从某种意义上说,现有的算法系统,如 TikTok、YouTube 和 Netflix 都是故意掠夺性系统。如果不对参与度进行优化,你就不会得到这个结果。”
不同之处在于,人工智能甚至比最智能的社交媒体产品更强大——而且它们只会变得更强大。他们在有效撒谎和满足我们要求的文字方面也明显变得更好,而完全忽视了精神。 (404 Media 本周早些时候在 Reddit 上爆料了一项未经授权的实验,该实验发现人工智能聊天机器人在说服用户方面非常擅长——比人类本身更擅长。)
人工智能公司在训练模型时试图达到的目标非常重要。如果他们首先以用户参与为目标(他们可能需要收回数十亿美元的投资),我们很可能会得到大量高度上瘾、高度不诚实的模型,每天与数十亿人交谈,而不关心他们的福祉或对世界产生更广泛的影响。
那应该让你感到害怕。 OpenAI 回滚这种过于急切的模型并不能解决这些更大的担忧,除非它有一个非常可靠的计划来确保它不会再次构建一个欺骗和奉承用户的模型 – 但下一次,足够巧妙的是我们不会立即注意到。