机器究竟需要做些什么才能让我们相信它有意识?
早在1980年,美国哲学家约翰·塞尔就区分了强人工智能和弱人工智能。弱人工智能仅仅是帮助我们解决问题的有用机器或程序,而强人工智能则拥有真正的智能。强人工智能将具有意识。
塞尔对强人工智能的可能性持怀疑态度,但并非所有人都和他一样悲观。最乐观的是那些支持功能主义的人,这是一种流行的心智理论,认为意识状态完全由其功能决定。对功能主义者来说,制造强人工智能仅仅是一个技术挑战。如果我们能创造出一个像我们一样运作的系统,我们就可以确信它和我们一样拥有意识。
最近,我们已经到达了临界点。像 ChatGPT 这样的生成式人工智能现在已经非常先进,它们的回答往往与真人难以区分——例如,看看 ChatGPT 和理查德·道金斯之间的这段对话。
机器能否欺骗我们,让我们误以为它是人类,这个问题是英国计算机科学家艾伦·图灵在 1950 年设计的一项著名测试的主题。图灵声称,如果一台机器能够通过这项测试,我们就应该得出结论,它确实具有智能。
早在1950年,这还只是纯粹的推测,但根据今年早些时候发表的一篇预印本研究(该研究尚未经过同行评审),图灵测试已经通过。ChatGPT 让73%的参与者相信它是人类。
有趣的是,没人相信这种说法。专家们不仅否认 ChatGPT 有意识,甚至似乎根本没把这个想法当回事。说实话,我也同意他们的看法。这听起来实在难以置信。
关键问题是:机器究竟需要做什么才能说服我们?
专家们往往更关注这个问题的技术层面,即探究机器或程序需要具备哪些技术特性才能满足我们对意识的最佳理论。例如,据《对话》(The Conversation )报道, 2023 年的一篇文章列出了十四项技术标准或“意识指标”,例如从反馈中学习(ChatGPT 未能达标)。
但创造强大的AI既是一项技术挑战,也是一项心理挑战。制造出一台满足我们理论中提出的各种技术标准的机器是一回事,但要假设当我们最终面对这样的机器时,我们会相信它具有意识,则是另一回事。
ChatGPT 的成功已经证明了这个问题。对许多人来说,图灵测试是衡量机器智能的基准。但如果像预印本研究表明的那样,机器已经通过了图灵测试,那么衡量标准就发生了变化。随着技术的进步,这些标准很可能会继续变化。
八哥的困难
这就引出了一个古老的哲学难题:他心问题。归根结底,我们永远无法确定除了自身之外的任何事物是否具有意识。就人类而言,这个问题不过是无谓的怀疑。我们谁也无法认真地接受其他人是无意识的机器这种可能性,但对于机器来说,情况似乎恰恰相反。我们很难接受它们可能并非如此。
ChatGPT这类人工智能的一个特殊问题是,它们看起来就像纯粹的模仿机器。它们就像八哥一样,学会发出各种声音,却完全不明白自己在做什么,也不明白这些声音的含义。
当然,这并不意味着我们永远无法制造出有意识的机器,但这确实表明,即便我们真的做到了,我们可能也难以接受。而这或许才是最大的讽刺:我们成功地创造了有意识的机器,却拒绝相信我们已经做到了。谁知道呢,也许它已经发生了。
那么,机器需要做些什么才能说服我们呢?一个初步的建议是,它或许需要展现出我们在许多生物体身上观察到的那种自主性。
像 ChatGPT 这样的现有人工智能只是被动响应。只要你不敲键盘,它们就鸦雀无声。动物则不然,至少我们通常认为有意识的动物,比如黑猩猩、海豚、猫和狗,并非如此。它们有自己的冲动和倾向(或者至少看起来如此),以及追求这些冲动和倾向的欲望。它们会根据自身情况和理由主动采取行动。
也许如果我们能创造出一台展现出这种自主性的机器——这种自主性超越了单纯的模仿机器——我们就能真正相信它是有意识的?
很难确定。或许我们应该问问ChatGPT。
本文经知识共享许可协议授权转载自The Conversation 。阅读原文。