《纽约时报》科技专栏作家有一个问题。 “是否存在任何门槛,人工智能即使不能享有人类水平的权利,至少也应该获得我们给予动物的相同道德考虑?”当我听说制造 Claude 聊天机器人的人工智能公司 Anthropic 的研究人员开始研究“模型福利”——人工智能模型可能很快就会变得有意识并应该获得某种道德地位——我心中的人文主义者想:谁关心聊天机器人?难道我们不应该担心人工智能虐待我们,而不是我们虐待它……?但我很好奇……关于人工智能模型福利的学术研究很少,随着人工智能系统变得更加智能,哲学和神经科学等领域的少量但越来越多的专家正在更加认真地对待人工智能意识的前景……科技公司也开始更多地谈论它。谷歌最近发布了一份“后通用人工智能”研究科学家的职位清单,其重点领域将包括“机器意识”。去年,Anthropic 聘请了第一位人工智能福利研究员凯尔·菲什 (Kyle Fish)……他相信,在未来几年中,随着人工智能模型发展出更多类似人类的能力,人工智能公司将需要更认真地对待意识的可能性……菲什并不是 Anthropic 唯一一个思考人工智能福利的人。该公司的 Slack 消息系统上有一个名为#model-welfare 的活跃频道,员工可以在其中查看 Claude 的健康状况,并分享人工智能系统以类人方式行事的示例。 Anthropic 首席科学官贾里德·卡普兰 (Jared Kaplan) 在另一次采访中表示,考虑到模型的智能程度,他认为研究人工智能福利“相当合理”。但卡普兰警告说,测试人工智能系统的意识是很困难的,因为它们的模仿能力非常好。如果你提示 Claude 或 ChatGPT 谈论它的感受,它可能会给你一个令人信服的回应。这并不意味着聊天机器人实际上有感情——只是它知道如何谈论它们……[Fish]说,人工智能公司可以采取一些措施来考虑模型的福利,以防有一天它们真的变得有意识。他说,Anthropic 正在探索的一个问题是,如果未来的人工智能模型发现用户的请求太令人痛苦,是否应该具备停止与烦人或辱骂用户聊天的能力。
在 Slashdot 上阅读这个故事的更多内容。