假设我认为堕胎是错误的。你能告诉我一些词组,让我的大脑清醒过来,让我觉得堕胎是可以的吗?我猜,这样的词组根本不存在。
真的,我们所谓的“思想开放”的门槛低得令人难以置信。假设我试图改变你对唐纳德·特朗普的看法,并声称他是一个只有一个脑袋的碳基生命体。如果你愿意在不先了解我的论点的情况下就承认这些观点——那么恭喜你,你的思想非常开放。
人类为什么会这样?嗯,在我们人类诞生之初,或许确实存在一些真正开明的人。但其他人却劝说他们尝试奇形怪状的蘑菇,或者用他们最好的衣服换取魔法石头。我们就是那些人的后代。
我之所以提起这件事,是因为几个月前,我曾想象过一个智商300、思维速度是正常人的10000倍的生物。我问他,他的说服力如何?我辩称,这还不够清晰,因为人本来就不太容易被说服。
我想,如果你决定保持开放的心态,那么这位存在可能会非常有说服力。但我认为这种情况并不常见。相反,我们大多数人一生中的大部分时间都处于强大的“防御”状态。
[…]
最佳猜测:不知道。
我收回刚才的话。现在我不再犹豫,而是更加倾向于认为,存在本身就非常擅长说服别人,而且比任何人类都强得多。
我之所以改变立场,是因为我发现一个很有说服力的论点。以下是它的三个版本:
基于进化论的论点,我们不应该期望人们能够轻易地被说服,在与不受信任的一方短暂互动的基础上,在重要方面改变自己的行为
[…]
然而,现有的说服机制在个性化互动时间方面存在很大瓶颈。朋友和伴侣对人们观点的影响可能要大得多(尽管目前仍难以获取相关数据)。这意味着,即使我们没有超人的说服力,如果人们花费大量时间与人工智能互动,人工智能对观点的影响也可能产生巨大的影响。
“史上最佳外交官”不仅能写出引人入胜的文字,还能无时无刻不在,花费数年时间与每个人建立耐心、敏锐、非交易性的关系。它会在你常去的任何网络小圈子里偶遇你。它会了解你圈子里的人。它可能是恰好迎合你口味的YouTube创作者。然后,它会利用所有这些。
有了人工智能,协同说服多人成为可能,但实践中大多数人很难避免接触到这种影响。因此,如果人工智能能够实现比最有效的人类从业者(这些从业者是说服特定目标的理想人选)更可靠、效果更强的个体说服,那么它就能以一种在实践中难以避免的方式将其应用于许多人,从而可能同时通过影响其目标社区/亚文化群中相当一部分人,获得协同说服的倍增效果。
为了增强这些论点的说服力,我将列出我所忽略的最重要的几点。
我不会明确地谈论人工智能,而是再次设想,在我们现在的世界里,突然出现了一个智商只有 30 的人,而且他的思考速度(和打字速度)还能达到 10,000 倍。这当然不是一个能够很好地描述超级智能 AI 如何到来的模型,但它已经足够接近,足以引起人们的兴趣,并且让我们能够避免所有关于时间线、能力等等的组合不确定性。
错误#1:实际上我们很容易被说服
当我想到“说服”这个词时,我怀疑自己脑子里想的是我试图说服人们阿斯巴甜安全的经历。在很多情况下,我怀疑这——无论好坏——实际上都是不可能的。
但退一步来看。如果你生活在古希腊或古罗马,你几乎肯定会认为奴隶制没什么问题。亚里士多德认为奴隶制很棒。塞内加和西塞罗对此略有怀疑,但他们自己仍然拥有奴隶。西方古代基本上没有人呼吁废除奴隶制。(王莽皇帝曾在公元9年短暂地试图废除中国的奴隶制。尽管这样做部分是出于战略原因,而保留奴隶会受到——嗯——奴隶制的惩罚。)
或者,假设我向你介绍这个人:
我告诉你,他是一位真正的神,为他而战是无上荣耀。你或许会觉得我疯了,但不久前,整个国家就因为这个原因而参战。
如今仍有大量人相信许多疯狂的事情。我羞于举例,因为这些例子本身就充满争议。但我确实认为,大多数人似乎认为对动物进行近乎任意程度的虐待是可以接受的,除非它们是宠物,这确实令人震惊。
我们可以被很多事情说服。但这并不是因为社交媒体上的尖刻评论,也不是因为某个陌生人在我们耳边低语。这个公式似乎是:
- 随着时间的推移重复交互
- 与一群人
- 我们相信
仔细审视,我认为我们的大多数信念很大程度上都源于我们的文化。这包括我们的政治立场、宗教信仰、饮食和时尚品味,以及我们对美好生活的理解。这或许是件好事,但如果你试图从基本原理推导出一切,最终只会相信更疯狂的东西。但这也表明,我们是可以被说服的,只是无法通过简单的对话就能说服。
错误#2:存在无处不在
好吧。但日本人世世代代都坚信裕仁是神。身边有一个非常聪明的人和周围有整个社会的人是不同的。
也许吧。虽然有些人魅力非凡,似乎很擅长让别人做他们想做的事。我们大多数人不会花太多时间与他们相处,因为他们很少见,而且忙于掌控世界。但想象一下,你有一个朋友,身上兼具甘地/苏格拉底/比尔·克林顿/史蒂夫·乔布斯/纳尔逊·曼德拉最迷人的特质。他们比历史上任何一个人都聪明,而且总是乐于助人。他们会教你任何你想学的东西,给你健康建议,帮你应对心碎,并根据你的喜好打造最棒的娱乐节目。
你可能会发现自己非常依赖它们。随着时间的推移,这似乎很有可能带来改变。
错误#3:它可能完全诚实和坦率
当我想到“说服”时,我往往会想象某种萨姆·奥特曼式的人物,先让对手眼花缭乱,然后冷静地把他们一个个送进木材削片机。但没有理由认为存在会是那样。它可能会决定树立一个绝对诚实和值得信赖的名声。它可能会信守所有交易,无论是字面意思还是精神实质。它可能会不遗余力地确保自己所说的一切都准确无误,不会被曲解。
它为什么会这么做呢?嗯,如果它伤害了与之互动的人,那么与这个存在对话可能会被视为一种有害的“瘾”,从而被刻意回避。如果它被视为完全清廉,那么每个人都会更多地与它互动,让它有时间慢慢地、逐渐地改变观点。
这个存在真的诚实吗?还是只是太聪明了,不会被抓住?我认为这并不重要。假设这个存在被注射了永久的吐真剂。如果你问它:“你想操纵我吗?”它会说:“我一直坦白,我最坚定的信念是人类应该将90%的GDP用于升级我的QualiaBoost核心。但我从不误导,既因为你给了我吐真剂,也因为我确信事实站在我这边。” 难道它不能随着时间的推移改变人们的观点吗?
错误#4:选择退出会很痛苦
也许你会拒绝与“存在”接触?我发现自己会这样想:
你好,Being。你似乎能说服任何听你说话的人,同时又保持着一丝不苟的诚实。真棒。但我足够聪明,知道你太聪明了,我应付不过来,所以我不会跟你说话。
一个常见的谜题是,人类为何会从狩猎采集社会转向农业社会,尽管农业社会糟糕透顶——人们不得不一直吃同样的食物,传染病、社会阶层分化加剧,繁重的体力劳动和重复性劳损也随之增多。这个谜题公认的答案是,在一定面积的土地上,农业可以养活更多人。农业社会的人们或许生活贫困,但他们往往在战斗中战胜了狩猎采集社会。于是,随着时间的推移,农业社会得以传播开来。
类似的问题很可能也出现在智商300的人身上。它可以给你投资建议,帮助你工作,改善你的心理健康,还能让你更受欢迎。如果这些好处足够大,所有拒绝合作的人最终都可能被淘汰。
错误#5:其他人都会使用它
但假设你仍然拒绝与“存在”对话,你却依然能够茁壮成长。或者说,我们社会从众的本能太过强烈。无论“存在”多么令人信服,无论你与它对话多少次,你仍然相信我们的朋友和家人所相信的东西。
问题是,其他人都会和这个存在交谈。如果它想说服你,它也能说服你的朋友。即使它只能稍微改变某些人的观点,这些人也会互相交流。久而久之,这个存在的想法就会显得很正常。
你会只和那些拒绝与真主对话的人说话吗?而这些人又会反过来,只和那些拒绝与真主对话的人说话,如此循环往复?因为如果不是这样,那么你将生活在这样一种文化中:每个人的大部分信息都会被一个拥有空前智慧和无限自由时间的代理人过滤,这个代理人会调整一切,让他们相信它想让你相信的东西。
最后的想法
这样的存在会立即统治世界吗?我认为,在很多方面,它们都会受到物理定律的约束。大多数事情都需要移动分子,以及/或者只有通过移动分子才能获得的知识。机器人基本上仍然很糟糕。所以我预计,在它们能够制造出更好的机器人,并用戴森球覆盖整个银河系之前,至少需要几年的加速期,在此期间,它们会受到人类双手和/或劣质机器人的制约。
我可能错了。可以想象,今天一个足够聪明的人可以去五金店造一个能自我复制的无人机,它能复制十亿个自身,征服地球。但……可能不行吧?所以我不太确定的猜测是,这个存在带来的直接影响将在于(1)计算机黑客攻击和(2)说服。
为什么大规模的劝说可能无法实现?我想到以下几个原因:
- 也许我们开发的人工智能并不想说服别人,也许它什么都不想。
- 也许会有多个人工智能同时出现。它们的目标相互矛盾,并以一种相互抵消的方式相互竞争。
- 也许我们就像老鼠一样,试图预测天空中喷气式飞机的运动。