许多人已经对人工智能的智能感到震惊。与即将到来的更大冲击——高度情感化的人工智能——相比,这似乎显得有些古怪。合成情感的到来将给人类社会带来混乱、愤怒、不安、困惑和文化冲击,这些冲击将使人们对人工智能的关注相形见绌。未来几年,新闻标题将从“每个人都会失业”(但不会)转变为“人工智能伴侣将终结我们所知的文明”。
我们可以理性地理解计算机可以合理地拥有理性这一事实。我们或许不喜欢它,但我们可以接受计算机可以变得智能,部分原因是我们已经把自己的大脑视为一种计算机。很难相信它们能像我们一样聪明,但一旦它们真的如此,这多少有些道理。
接受机器创造的创造力更加困难。创造力似乎非常人性化,在某些方面它被视为理性的对立面,因此它似乎不像理性那样属于机器。
情绪之所以有趣,是因为情绪显然不仅存在于人类身上,也存在于许许多多的动物身上。任何宠物主人都能列举出他们的宠物感知和表达情绪的方式。对动物的爱,一部分在于能够与它们产生情感上的共鸣。它们对我们的情绪做出回应,正如我们对它们的情绪做出回应一样。人与动物之间存在着真挚而深厚的情感纽带。
同样的情感纽带也正在应用于机器。我们已经看到了一些曙光。几乎每周都会有陌生人给我发来他们与人工智能的聊天记录,展现他们多么深厚的直觉,多么深刻的理解,以及他们在精神上的紧密联系。我们还收到一些报告,称青少年们与人工智能“朋友”们关系密切。而这一切都发生在我们尚未真正深入研究如何将情感植入人工智能之前。
我们为什么要给人工智能编程情感?原因如下:
首先,情感是机器的绝佳界面。它使与机器的互动更加自然舒适。情感对人类来说很容易表达。我们无需学习,都能直观地理解诸如赞扬、热情、怀疑、说服、惊讶、困惑等情绪——而这些情绪可能正是机器想要表达的。人类运用微妙的情感来传达非语言信息、重要性和指令,而人工智能也会在其指令和交流中使用类似的情感元素。
其次,市场将青睐情感代理,因为人类也是如此。即使人工智能和机器人的基本能力趋同,它们也将继续多样化,因此在选择使用哪一种时,它们的个性和情感特征将变得更加重要。如果它们都同样聪明,那么更友好、更友善或更适合做伴侣的那个将获得工作。
第三,我们希望人工智能代理能够做到的很多事情,无论是软件AI还是硬件机器人,都需要的不仅仅是理性计算。AI能够整夜编写代码是不够的。我们目前对智能的评价过高了。要真正具有创造力和创新能力,要足够聪明到能够提供好的建议,需要的不仅仅是智商。机器人需要在其软件中深深嵌入复杂的情感动态。
这可能吗?是的。
几十年前,一些研究项目(例如麻省理工学院的研究项目)就致力于探索如何将情绪提炼成可移植到机器上的属性。其中一些研究成果涉及如何在硬件上直观地显示情绪,就像我们用自己的面部表情一样。其他研究人员则提取了我们用声音,甚至用文字表达情绪的方式。最近,我们目睹了人工智能开发者调整其智能体的赞美和“友善”程度,因为有些用户不喜欢他们的新个性,而有些用户则根本不喜欢这种个性的改变。虽然我们确实可以编程设定个性和情绪,但我们还不知道哪种方式最适合特定的任务。
机器展现情绪只是工作的一半。另一半是机器对人类情绪的检测和理解。关系是双向的,为了真正成为情感代理,机器必须善于捕捉你的情绪。该领域已经有很多研究,主要是面部识别,不仅识别你的身份,还识别你的感受。一些商业应用程序可以观察用户在键盘前的状态,并检测他们是否处于抑郁或情绪压力之下。由此推断,智能眼镜不仅可以观察你的情绪,还可以同时观察你的面部表情,解析你的情绪。你是困惑还是高兴?惊讶还是感激?坚定还是放松?苹果的 Vision Pro 眼镜中已经配备了后置摄像头,可以追踪你的眼球和微表情,例如眨眼和扬眉。目前的法学硕士(LLM)教材不会尝试检测你的情绪状态,除非你可以通过题目中的字母来获取信息,但从技术上来说,做到这一点并不算太难。
未来几年,将会有大量的情感实验。有些人工智能会简洁明了、逻辑清晰;有些则会健谈外向。有些人工智能会悄悄说话,只在你愿意倾听时才开口。有些人会更喜欢大声、风趣幽默、善于逗他们笑的人工智能。许多商业人工智能将被设计成你最好的朋友。
我们或许会觉得,成年人对此钦佩,但孩子却可能感到恐惧。的确,人工智能与儿童的关系需要警惕的问题有很多,而不仅仅是情感。但情感纽带将是儿童人工智能的关键考量因素。年幼的人类儿童已经能够与呆滞的玩偶和泰迪熊建立联系,并变得非常亲近。想象一下,如果一只泰迪熊能回应他们,以无限的耐心玩耍,并模仿他们的情绪。随着孩子的成长,它可能永远都不想放弃泰迪熊。因此,机器情感的质量很可能成为我们拥有截然不同机制的领域之一,一种机制针对成人,另一种机制针对儿童。不同的规则、不同的期望、不同的法律、不同的商业模式等等。
但即使是成年人也会对情感机器人产生强烈的依恋,就像电影《她》里那样。起初,社会会把那些沉迷于人工智能之爱的人类贴上妄想症或精神不稳定的标签。但正如大多数深爱猫狗的人并非精神失常,而是适应良好、富有同理心的生物一样,大多数与人工智能和机器人建立亲密关系的人类也会同样认为这种联系是有益的,并且能够拓展视野。
人们普遍担心与机器建立亲密关系,担心它们可能过于友善、聪明、耐心、乐于助人,以至于人们会完全脱离人际关系。这确实可能发生。不难想象,善意的人们只会享受人工智能提供的“轻松愉快的友谊”,就像他们容易被加工食品的美味卡路里所诱惑一样。抵制这种诱惑的最佳方法类似于快餐:教育和更好的选择。在这个新世界中成长的一部分将是学会辨别相当完美的关系与混乱、困难、不完美的人类关系之间的区别,以及后者赋予的价值。要成为最好的自己——无论你如何定义——都需要你花时间与人相处!
你并没有禁止与人工智能建立关系(或快餐),而是适度地调整它,并保持客观。因为事实上,人工智能朋友、导师、教练或伴侣的“完美”行为可以成为很好的榜样。如果你身边都是经过训练和调整,能够达到人类所能达到的最佳水平的人工智能,这将是提升自我的绝佳方式。普通人的道德观念非常肤浅,原则自相矛盾,很容易被自身的基本欲望和环境所左右。理论上,我们应该能够对人工智能进行编程,使其拥有比普通人更好的道德观念和原则。同样,我们也可以设计人工智能,使它们成为比普通人更好的朋友。拥有这些受过教育的人工智能可以帮助我们提升自我,成为更好的人。与它们建立深厚关系的人有机会成为最适应环境、最有同理心的人。
有人认为,由于“机器人无法感知任何事物”,人工智能的情感并非真实,这种说法将被彻底忽略。正如有人批评人工智能是人造的,因此并非真实,因为它们无法理解。这无关紧要。我们不明白“感觉”的真正含义,甚至不明白“理解”的含义。这些术语和概念早已习以为常,但已不再适用。人工智能会做一些我们过去称之为“智能”的事情,它们也会开始做一些我们过去称之为“情感”的事情。最重要的是,人类与人工智能、机器人、机器人之间的关系将像任何其他人际关系一样真实、有意义。它们将是真正的关系。
但人工智能/机器人的情感虽然真实存在,却可能有所不同。真实存在,却又扭曲。人工智能或许很有趣,但它们的幽默感略有偏差,略有不同。它们会嘲笑我们不会嘲笑的事情。而且,它们幽默的方式会逐渐改变我们的幽默感,就像它们下棋和围棋的方式改变了我们与它们对弈的方式一样。人工智能很聪明,但却以一种非人类的方式。它们的情感同样会显得格格不入,因为人工智能本质上是人造外星人。事实上,通过观察它们,我们将比通过研究自身更多地了解情感的本质。
机器的情感并非一朝一夕就能实现。情感会逐渐积累,所以我们有时间去引导它们。它们始于礼貌、文明、友善。它们会赞美和奉承我们,轻而易举,甚至过于轻而易举。核心问题不在于我们与机器的联系是否会紧密亲密(它们会),也不在于这些联系是否真实存在(它们会),更不在于它们是否会阻碍人际关系(它们不会),而是你的情感代理为谁工作?谁拥有它?它被优化的目的是什么?你能相信它不会操纵你吗?这些才是未来十年将主导我们思考的问题。
显然,关于我们最敏感的数据,是源自我们情绪的信息。我们害怕什么?究竟是什么让我们快乐?什么让我们感到恶心?什么能让我们兴奋?经过多年的日复一日地与我们始终在线的智能体互动,智能体会掌握我们的完整资料。即使我们从未明确透露过我们内心最深的恐惧、最珍视的渴望以及最脆弱的时刻,它也能从我们交流、提问和反应的情绪波动中了解这一切。它比我们自己更了解我们。在未来的几十年里,这将成为一句常见的说法,人们既兴奋又恐惧地重复着:“我的人工智能智能体比我自己更了解我。”
在很多情况下,这都是真的。在最好的情况下,我们利用这个工具来更好地了解自己。在最坏的情况下,这种知识的不对称将被用来操纵我们,并扩大我们最坏的自我。我没有看到任何证据表明我们会停止将人工智能融入我们的生活,即使不是每分钟,甚至每分钟。(会有例外,比如阿米什人,他们会退出,但这只是极少数。)我们大多数人,在大多数时间里,都会与一个始终在线、随时准备以任何方式帮助我们的人工智能代理/机器人/机器人保持亲密关系,这种关系将变得像任何其他人际关系一样真实和有意义。我们愿意与它分享我们生活中最私密的时刻。平均而言,只要这样做能带来好处,我们就会把我们最私密的数据借给它。(数据隐私的门槛不在于谁拥有它,而在于我能获得多少好处?如果好处足够大,人们就会分享任何类型的数据。)
二十五年后,如果那些始终陪伴着人工智能的人都是彻头彻尾的混蛋、厌世的家伙和失败者,那么情感人工智能的故事就此终结。另一方面,如果与人工智能保持密切关系的人比一般人更有同理心、更高效、独树一帜、适应力更强、内心世界更丰富,那么这将是情感人工智能的开端。
我们可以通过奖励那些引领我们朝着理想方向发展的发明,将故事引导到我们想要的开端。问题不在于人工智能是否会有情感,而在于我们如何利用这种情感。