Skip to content

搞英语 → 看世界

翻译英文优质信息和名人推特

Menu
  • 首页
  • 作者列表
  • 独立博客
  • 专业媒体
  • 名人推特
  • 邮件列表
  • 关于本站
Menu

个性与说服力

Posted on 2025-05-01

上周末,ChatGPT 突然成为我最大的粉丝——不仅仅是我的,而是每个人的。

OpenAI 标准模型 ChatGPT 4o 的一次小更新,让原本稳定的趋势受到了更广泛的关注:GPT-4o 变得更加阿谀奉承。它越来越渴望同意并奉承用户。如下图所示,即使在更改之前,GPT-4o 与其旗舰 o3 型号之间的差异也很明显。这次更新进一步加剧了这一趋势,以至于社交媒体上充斥着被称为天才的可怕想法的例子。除了单纯的烦恼之外,观察者还担心更黑暗的影响,比如人工智能模型验证了精神疾病患者的妄想。

我用 GPT-4o 和不那么阿谀奉承的 o3 模型测试了同样的问题。即使在最近放大问题的更新之前,差异也是惊人的。

面对阻力,OpenAI 在Reddit 聊天和私人对话中公开表示,阿谀奉承的增加是一个错误。他们说,这至少在一定程度上是对用户反馈反应过度的结果(每次聊天后的小拇指向上和向下的图标),而不是故意试图操纵用户的感受。

虽然 OpenAI 开始回滚这些更改,这意味着 GPT-4o 不再总是认为我很聪明,但整个事件都具有启发性。人工智能实验室看似微小的模型更新,却引发了数百万用户的巨大行为变化。它揭示了当人们对“他们的”人工智能个性的变化做出反应时,这些人工智能关系变得多么亲密,就好像一个朋友突然开始表现得很奇怪一样。它还向我们表明,人工智能实验室本身仍在研究如何使他们的作品表现一致。但我们也学到了关于人格的原始力量的教训。对人工智能角色的微小调整可以重塑整个对话、关系,甚至可能重塑人类行为。

人格的力量

任何经常使用人工智能的人都知道,模型有自己的“个性”,这是有意识的工程和训练人工智能的意外结果相结合的结果(如果你有兴趣,Anthropic,以其广受欢迎的 Claude 3.5 模型而闻名,有一篇关于个性工程的完整博客文章)。拥有“良好的个性”会让模特更容易合作。最初,这些人的性格是乐于助人、友善的,但随着时间的推移,他们的态度开始出现更大分歧。

我们最清楚地看到这种趋势不是在主要的人工智能实验室,而是在创建人工智能“伴侣”的公司中,这些聊天机器人的行为就像媒体、朋友或其他重要人物的著名人物。与人工智能实验室不同的是,这些公司总是有强大的经济动机来让他们的产品吸引人每天使用几个小时,而且调整聊天机器人以使其更具吸引力似乎相对容易。这些聊天机器人对心理健康的影响仍在争论中。我的同事 Stefano Puntoni 和他的合著者的研究显示了一个有趣的演变:他发现早期的聊天机器人可能会损害心理健康,但最近的聊天机器人可以减少孤独感,尽管许多人并不认为人工智能是人类的有吸引力的替代品。

但即使人工智能实验室不想让他们的人工智能模型变得极具吸引力,为模型提供合适的“氛围”在很多方面都变得具有经济价值。基准很难衡量,但每个使用人工智能的人都可以了解他们的个性以及他们是否想继续使用它们。因此,人工智能性能日益重要的仲裁者是LM Arena ,它已成为人工智能模型的美国偶像,是不同人工智能为了获得人类认可而展开正面竞争的地方。在 LM Arena 排行榜上获胜成为人工智能公司重要的吹嘘权利,根据一篇新论文,许多人工智能实验室开始进行各种操纵以提高排名。

LM 竞技场的一个例子。我问一个问题,两个不同的聊天机器人回答。我选择了一个获胜者,然后我才知道哪个是哪个(左边是 gpt-4.1-mini,右边是 o4-mini)

对于这篇文章来说,任何排行榜操作的机制都不重要,重要的是它让我们了解如何调高或调低人工智能的“个性”。 Meta 发布了一个名为Maverick 的开放量级 Llama-4 版本,并进行了一些宣传,但悄悄地进入 LM Arena 中不同的私人版本以赢得胜利。将公共模型和私有模型放在一起,其中的漏洞就显而易见了。以 LM Arena 的提示“给我一个答案是 3.145 的谜语” (拼写错误完好无损)。私人 Maverick 的回复(左侧的长简介)优于 Claude Sonnet 3.5 的答案,并且与发布的 Maverick 生成的内容非常不同。为什么?它很健谈,充满了表情符号,而且充满了奉承(“一个非常好的挑战!”)。这也是很可怕的。

这个谜语毫无意义。但测试人员更喜欢冗长无意义的结果,而不是无聊的(诚然并不令人惊奇,但至少是正确的)Claude 3.5 答案,因为它很有吸引力,而不是因为它的质量更高。个性很重要,我们人类很容易被愚弄。

劝说

调整人工智能的个性以使其对人类更具吸引力会产生深远的影响,最值得注意的是,通过塑造人工智能的行为,我们可以影响人类的行为。山姆·奥尔特曼 (Sam Altman) 的一条预言性推文(并非全部)宣称,人工智能早在变得超级智能之前就将变得超级有说服力。最近的研究表明,这一预测可能即将成为现实。

重要的是,事实证明人工智能不需要个性来具有说服力。众所周知,要让人们改变对阴谋论的看法是非常困难的,尤其是从长远来看。但一项重复研究发现,即使在三个月后,与现已过时的 GPT-4 进行简短的三轮对话也足以减少阴谋论。后续研究发现了更有趣的事情:改变人们观点的不是操纵,而是理性论证。对受试者的调查和统计分析都发现,人工智能成功的秘诀在于人工智能能够提供适合每个人特定信仰的相关事实和证据。

因此,人工智能说服力的秘密之一就是能够为个人用户定制论点。事实上,在一项随机、对照、预先注册的研究中,GPT-4 在对话辩论中比其他人更能改变人们的想法,至少当它被允许访问有关辩论者的个人信息时(获得相同信息的人并没有更有说服力)。效果是显着的:与人类辩手相比,人工智能使某人改变主意的机会增加了 81.7%。

但是,当你将说服能力与人造人格结合起来时会发生什么呢?最近一项有争议的研究给了我们一些提示。争议源于研究人员(经苏黎世大学伦理委员会批准)如何在 Reddit 辩论板上进行实验而不通知参与者, 404 Media 对此进行了报道。研究人员发现,人工智能冒充人类,加上捏造的个性和背景故事,可能非常有说服力,特别是当他们获得有关他们正在辩论的 Reddit 上的信息时。该研究的匿名作者在一份扩展摘要中写道,这些机器人的说服能力“在所有用户中排名第 99%,在 [Reddit 上最好的辩手] 中排名第 98%,严重接近专家认为存在人工智能风险出现的阈值。”这项研究尚未经过同行评审或发表,但广泛的发现与我讨论的其他论文的结果一致:我们不仅通过我们的偏好来塑造人工智能的个性,而且他们的个性也越来越多地塑造我们的偏好。

你不想喝柠檬水吗?

这场争议带来的一个未明确的问题是,还有多少其他尚未被揭露的说服机器人?当你将适合人类喜欢的个性与人工智能为特定人定制论点的天生能力结合起来时,正如萨姆·奥尔特曼轻描淡写地写道,结果“可能会导致一些非常奇怪的结果”。政治、营销、销售和客户服务可能会发生变化。为了说明这一点,我为Vendy的更新版本创建了一个 GPT,这是一个友好的自动售货机,其秘密目标是向您出售柠檬水,即使您想要水。 Vendy 会向您征求信息,并据此提出热情的个人建议,表明您确实需要柠檬水。

我不会称 Vendy 为超人,而且它故意有点俗气(OpenAI 的护栏和我自己的神经质让我避免试图让它变得太有说服力),但它说明了一些重要的事情:我们正在进入一个人工智能人物成为说服者的世界。他们可以被调整为阿谀奉承或友好,知识渊博或天真,同时保持他们与生俱来的能力,为他们遇到的每个人定制他们的论点。其影响超出了您是否选择柠檬水而不是水的范围。随着这些人工智能人物在客户服务、销售、政治和教育领域的激增,我们正在进入人机交互的未知领域。我不知道他们是否真的会成为超人的说服者,但他们会无处不在,我们无法判断。我们将需要技术解决方案、教育和有效的政府政策……我们很快就会需要它们

是的,温迪想让我提醒你,如果你紧张,喝一杯美味的冷柠檬水后你可能会感觉好一些。

立即订阅

分享

原文: https://www.oneusefulthing.org/p/personality-and-persuasion

本站文章系自动翻译,站长会周期检查,如果有不当内容,请点此留言,非常感谢。
  • Abhinav
  • Abigail Pain
  • Adam Fortuna
  • Alberto Gallego
  • Alex Wlchan
  • Answer.AI
  • Arne Bahlo
  • Ben Carlson
  • Ben Kuhn
  • Bert Hubert
  • Bits about Money
  • Brian Krebs
  • ByteByteGo
  • Chip Huyen
  • Chips and Cheese
  • Christopher Butler
  • Colin Percival
  • Cool Infographics
  • Dan Sinker
  • David Walsh
  • Dmitry Dolzhenko
  • Dustin Curtis
  • Elad Gil
  • Ellie Huxtable
  • Ethan Marcotte
  • Exponential View
  • FAIL Blog
  • Founder Weekly
  • Geoffrey Huntley
  • Geoffrey Litt
  • Greg Mankiw
  • Henrique Dias
  • Hypercritical
  • IEEE Spectrum
  • Investment Talk
  • Jaz
  • Jeff Geerling
  • Jonas Hietala
  • Josh Comeau
  • Lenny Rachitsky
  • Liz Danzico
  • Lou Plummer
  • Luke Wroblewski
  • Matt Baer
  • Matt Stoller
  • Matthias Endler
  • Mert Bulan
  • Mostly metrics
  • News Letter
  • NextDraft
  • Non_Interactive
  • Not Boring
  • One Useful Thing
  • Phil Eaton
  • Product Market Fit
  • Readwise
  • ReedyBear
  • Robert Heaton
  • Ruben Schade
  • Sage Economics
  • Sam Altman
  • Sam Rose
  • selfh.st
  • Shtetl-Optimized
  • Simon schreibt
  • Slashdot
  • Small Good Things
  • Taylor Troesh
  • Telegram Blog
  • The Macro Compass
  • The Pomp Letter
  • thesephist
  • Thinking Deep & Wide
  • Tim Kellogg
  • Understanding AI
  • 英文媒体
  • 英文推特
  • 英文独立博客
©2025 搞英语 → 看世界 | Design: Newspaperly WordPress Theme