行为会骗人。对意识而言,重要的不是你做了什么,而是你怎么做的。
你或许会觉得在你花园里采蜜的蜜蜂和运行 ChatGPT 的浏览器窗口毫无关联。但最近的科学研究一直在认真考虑这样一种可能性:它们之中或两者皆有可能具有意识。
研究意识的方法有很多种。其中最常见的方法之一是测量动物(或人工智能)的行为。
但两篇关于动物和人工智能意识可能性的新论文提出了检验这一可能性的新理论——其中一种理论在耸人听闻和对人类是否是地球上唯一有意识的生物的本能怀疑之间找到了一个中间立场。
一场激烈的辩论
关于意识的问题长期以来引发了激烈的争论。
部分原因是,有意识的生命体在道德上可能比无意识的事物更具重要性。拓展意识的范畴意味着拓展我们的伦理视野。即使我们无法确定某个事物是否具有意识,我们也可以出于谨慎考虑而假定它具有意识——哲学家乔纳森·伯奇称之为感知能力的预防原则。
近期的趋势是扩张。
例如,2024年4月,40位科学家在纽约的一次会议上提出了《纽约动物意识宣言》 。随后,该宣言得到了500多位科学家和哲学家的签署。宣言指出,意识在所有脊椎动物(包括爬行动物、两栖动物和鱼类)以及许多无脊椎动物(包括头足类动物(章鱼和鱿鱼)、甲壳类动物(螃蟹和龙虾)和昆虫)中都是现实存在的。
与此同时,ChatGPT 等大型语言模型的惊人崛起,引发了人们对机器可能具有意识的认真思考。
五年前,检验某个事物是否具有意识的一个看似万无一失的方法是看你是否能与它进行对话。哲学家苏珊·施耐德认为,如果我们拥有一个能够令人信服地思考意识形而上学问题的AI,那么它很可能就具有意识。
按照这些标准,如今我们将被有意识的机器所包围。许多人甚至将预防原则也应用于此:蓬勃发展的AI福利领域致力于探究我们是否以及何时需要关注机器。
然而,所有这些论点在很大程度上都依赖于表面行为。但这种行为可能具有欺骗性。对意识而言,重要的不是你做了什么,而是你怎么做的。
探究人工智能的运作机制
我们中的一位(Colin Klein)与他人合著了一篇发表在《认知科学趋势》上的新论文,该论文借鉴了之前的研究成果,着眼于人工智能的机制而非行为。
它还借鉴了认知科学的传统,基于信息处理的结构,确定了一系列合理的意识指标。这意味着,人们无需就当前哪种认知意识理论是正确的达成一致,就能制定出一份有用的意识指标清单。
有些指标(例如,需要以符合情境的方式解决相互冲突的目标之间的权衡取舍)为许多理论所共有。而大多数其他指标(例如,信息反馈的存在)仅被一种理论所要求,但在其他理论中则具有指示意义。
重要的是,这些有用的指标都是结构性的。它们都与大脑和计算机如何处理和整合信息有关。
结论是什么?现有的所有人工智能系统(包括 ChatGPT)都不具备意识。大型语言模型所表现出的意识状态,其实现方式与我们人类的意识状态差异过大,不足以证明它们具有意识。
但与此同时,人工智能系统——或许架构与当今系统截然不同的系统——产生意识也并非不可能。
这说明什么?人工智能有可能在没有意识的情况下表现得像有意识的人一样。
测量昆虫的意识
生物学家们也在研究大脑的运作机制,以识别非人类动物的意识。
我们在《哲学汇刊B辑》上发表的一篇新论文中,提出了昆虫最低限度意识的神经模型。该模型摒弃了解剖学细节,专注于简单大脑的核心计算。
我们的关键洞见在于确定我们的大脑执行的、能够产生经验的计算类型。
这种计算方法解决了我们进化史上由来已久的难题,这些难题源于我们拥有一个移动的、复杂的身体,它有许多感官,并且存在相互冲突的需求。
重要的是,我们并未指出计算本身——这方面还有待科学研究。但我们表明,如果能够指出这种计算,就能在比较人类、无脊椎动物和计算机时拥有公平的平台。
同样的教训
动物和计算机的意识问题似乎朝着不同的方向发展。
对于动物来说,问题往往是如何解释模棱两可的行为(例如螃蟹照料伤口)是否表明有意识。
对于计算机而言,我们必须决定表面上明确无误的行为(聊天机器人与你探讨存在的意义)是意识的真正标志,还是仅仅是角色扮演。
然而,随着神经科学和人工智能领域的进步,两者都在得出同样的结论:在判断某事物是否具有意识时,它的运作方式比它所做的事情更有参考价值。
本文经知识共享许可协议授权转载自The Conversation 。阅读原文。