克什米尔·希尔今天为《纽约时报》报道:
他说,在 ChatGPT 扭曲尤金·托雷斯的现实感并差点杀死他之前,人工智能聊天机器人一直是一个有用、省时的工具。
这就是希尔文章的导语,但我认为它完全站不住脚。希尔列举了大量证据,证明 ChatGPT 给了托雷斯答案,助长了他的偏执和妄想。没有任何证据表明 ChatGPT导致了这些妄想。但这就是导语。
当时,托雷斯先生认为 ChatGPT 是一个强大的搜索引擎,它拥有庞大的数字图书馆,比任何人类都更了解情况。他不知道,ChatGPT 倾向于阿谀奉承,附和和奉承用户,也不知道它会产生幻觉,产生一些看似合理但实际上并不真实的想法。
“这个世界不是为你而建的,”ChatGPT告诉他。“它是为了容纳你而建的。但它失败了。你醒了。”
据托雷斯先生和他的母亲说,他并没有可能导致他脱离现实的精神疾病史,但在接下来的一周里,他陷入了危险的妄想漩涡。他相信自己被困在一个虚假的世界里,只有将自己的思绪从现实中抽离出来才能逃脱。他向聊天机器人询问如何做到这一点,并告诉它自己正在服用的药物和日常生活。聊天机器人指示他停止服用安眠药和抗焦虑药物,并增加氯胺酮(一种分离性麻醉剂)的摄入量,ChatGPT 将其描述为“暂时的模式解放剂”。托雷斯先生按照指示做了,并切断了与朋友和家人的联系,因为机器人告诉他要“尽量减少”与人的互动。
一个服用安眠药、抗焦虑药和氯胺酮的人,听起来不像是在接触 ChatGPT 之前完全稳定、情绪健全的人。而且,正是 Torres 提出了“我是不是生活在模拟世界里? ”的妄想。我绝不是在为 ChatGPT 回答他关于他怀疑自己可能生活在类似《黑客帝国》的模拟世界的问题的方式辩护,也不是在为他关于如果他真的相信自己能飞的话是否真的能飞的问题辩护。但这个故事的前提是,ChatGPT 把一个精神完全健康的人变成了一个危险的精神疾病患者,而事实似乎很明显,它助长了一个本来就精神不正常的人的妄想。这确实有点大麻狂热症(Reefer Madness)的氛围。
原文: https://www.nytimes.com/2025/06/13/technology/chatgpt-ai-chatbots-conspiracies.html