ChatGPT 不是医生,就像 Google 不是医生一样。
一位喜欢户外绘画的德国艺术家因被虫咬而入院,并出现了一系列医生无法准确识别的症状。经过一个月的治疗和几次无效的治疗后,这位患者开始将自己的病史输入 ChatGPT, ChatGPT 给出了诊断:兔热病,也称为兔热病。聊天机器人的诊断是正确的,该病例后来被纳入了一项同行评审的医学研究。
大约在同一时间,另一项研究描述了一名男子在美国一家医院就诊,出现精神病症状,并偏执地认为邻居一直在毒害他。原来,这名患者曾向ChatGPT询问氯化钠(即食盐)的替代品。聊天机器人建议他使用溴化钠,这种物质用于清洁泳池。他已经食用这种有毒物质三个月了,停药后,需要在精神病院住三周才能稳定病情。
你可能很熟悉用谷歌咨询神秘疾病的场景。你在网上搜索自己的症状,有时会找到有用的建议,有时又会陷入焦虑和恐惧的漩涡,坚信自己患上了一种罕见的、未确诊的癌症。现在,得益于神奇的生成式人工智能 (Generic AI),你可以更详细地了解这个过程。来认识一下 ChatGPT 博士吧。
人工智能聊天机器人是人类医生的有吸引力的替代品,特别是考虑到美国持续的医生短缺以及获得医疗保健的更大障碍。
ChatGPT 并非真正的医生,就像 Google 并非真正的医生一样。在任何一个平台上搜索医疗信息,都可能导致错误的结论,就像它无法提供正确的诊断一样。然而,与仅仅引导用户找到信息的 Google 搜索不同,ChatGPT 和其他大型语言模型 (LLM) 会邀请人们就此展开对话。它们的设计理念是平易近人、引人入胜且随时可用。这使得人工智能聊天机器人成为人类医生的有力替代者,尤其是在美国持续存在的医生短缺以及医疗服务获取障碍日益增多的情况下。
正如兔子热病的轶事所示,这些工具还能吸收各种数据,并且经过大量医学期刊的训练,有时会得出医生们无法得出的专家级结论。或者,它可能会给你非常糟糕的医疗建议。
向聊天机器人寻求医疗建议和与其谈论你的健康状况之间是有区别的。如果做得好,与 ChatGPT 对话可以让你与医生更好地沟通,并获得更好的护理。只是不要让人工智能说服你吃掉泳池清洁剂。
与 ChatGPT 博士交谈的正确和错误方式
许多人正在与 ChatGPT 谈论他们的健康问题。 根据 2024 年 KFF 的一项民意调查,大约六分之一的美国成年人表示他们每月都会使用人工智能聊天机器人寻求医疗建议。他们中的大多数人对机器人提供的信息的准确性并不自信——坦率地说,考虑到法学硕士(LLM)容易产生幻觉,以及不良健康信息可能造成伤害,这种程度的怀疑是合理的。对于普通用户来说,真正的挑战在于如何区分事实和虚假信息。
“说实话,我认为人们在将其用于任何医疗目的时都需要非常谨慎,尤其是在他们缺乏专业知识来判断真假的情况下,”斯坦福医学院教授兼人工智能研究员Roxana Daneshjou 博士说道。“当它正确时,效果会很好,但当它不正确时,后果可能非常灾难性。”
聊天机器人也倾向于阿谀奉承,或者渴望取悦你,这意味着如果它们认为这是你想要的,它们可能会引导你走向错误的方向。
Daneshjou 补充说,情况已经够危险了,她鼓励患者转而寻求谷歌医生的帮助,因为谷歌医生提供了可靠的信息来源。十年来,这家搜索巨头一直与梅奥诊所和哈佛医学院的专家合作,提供有关“网络疑病症”(即互联网引发的健康焦虑)兴起后病情和症状的可靠信息。
事实上,这种情况比谷歌的历史要悠久得多。自20世纪80年代Usenet时代以来,人们就一直在寻找健康问题的答案。到2000年代中期,每10个人中就有8人使用互联网搜索健康信息。现在,无论聊天机器人的可靠性如何,它们都准备接收越来越多的此类查询。谷歌甚至将其有问题的人工智能生成的医疗问题结果置于其症状检查器经过审查的结果之上。
如果您有一份需要询问医生的事情清单,ChatGPT 可以帮助您准备问题。
但是,如果你只是想要根据医生已经告诉你的信息来进一步了解你的健康状况,或者更好地理解他们的专业术语,那么像 ChatGPT 这样的工具就非常有用了。聊天机器人的设计初衷就是对话,而且它们在这方面非常擅长。如果你有一系列需要咨询医生的问题,ChatGPT 可以帮助你设计问题。如果你已经获得了一些检查结果,需要和医生商讨下一步的最佳方案,你可以用聊天机器人进行练习,而无需真正向人工智能寻求任何建议。
事实上,单单就聊天而言,有证据表明 ChatGPT 更胜一筹。2023年的一项研究将 Reddit 论坛上真实医生对健康问题的回答与聊天机器人被问及相同问题时人工智能生成的回答进行了比较。随后,医疗保健专业人员评估了所有回复,发现聊天机器人生成的回复质量更高,也更富有同理心。这与医生与患者在同一个房间里讨论他们的健康状况是两码事。现在是时候指出,平均而言,患者每次就诊时只有 18 分钟的时间与他们的初级保健医生交谈。如果你一年只去看一次医生,那么这段时间与医生交谈的时间并不多。
您应该知道,与人类医生不同,ChatGPT 不符合 HIPAA 标准。聊天机器人通常 很少有隐私保护措施。这意味着您应该预料到,您上传的任何健康信息都会被存储在 AI 的内存中,并在未来用于训练大型语言模型。理论上,您的数据最终也有可能被包含在其他人的提示输出中。 聊天机器人有更私密的使用方式,但幻觉问题和潜在的灾难仍然存在。
机器人辅助医疗保健的未来
即使你没有使用人工智能来解开医学谜团,你的医生也有可能正在使用。 根据爱思唯尔2025年的一份报告,约有一半的临床医生表示他们曾在工作中使用过人工智能工具,略多的医生表示这些工具节省了他们的时间,五分之一的医生表示他们曾使用人工智能对复杂病例进行二次诊断。但这并不一定意味着你的医生会要求ChatGPT来解释你的症状。
早在 ChatGPT 出现之前,医生们就一直在使用人工智能工具来帮助完成从诊断病人到记录等各种工作。其中包括专为医生打造的临床决策支持系统,目前这些系统的表现优于现成的聊天机器人——尽管聊天机器人实际上可以增强现有工具的功能。2023 年的一项研究发现,使用 ChatGPT 的医生在诊断测试案例方面的表现仅略优于独立工作的医生。有趣的是,单独使用 ChatGPT 的医生表现最佳。
这项研究之所以成为头条新闻,可能是因为它表明人工智能聊天机器人在诊断方面比医生更胜一筹。该研究的合著者之一亚当·罗德曼博士认为,如果医生更愿意听取ChatGPT的意见,而不是在医生不同意其结论时就认定聊天机器人是错误的,那么这种情况就不一定会发生。当然,人工智能可能会产生幻觉,但它也能发现人类可能忽略的联系。再次,看看兔热病的案例。
“患者需要与医生讨论 LLM 的使用情况,老实说,医生也应该与患者讨论LLM的使用情况。”
“一般医生能察觉到幻觉或病情是否偏离轨道,”贝斯以色列女执事医疗中心内科医生、哈佛医学院讲师罗德曼说,“但我不知道一般病人是否一定能察觉。”
然而,短期内,你不应该指望在当地诊所看到 ChatGPT 医生的身影。你更有可能看到 AI充当记录员,节省医生做笔记的时间,甚至可能在未来分析这些数据来帮助你的医生。你的医生可能会使用 AI来更快地起草给患者的信息。在不久的将来,随着 AI 工具的改进,可能会有更多临床医生使用 AI 进行诊断和二次诊疗。但这并不意味着你应该急着联系 ChatGPT 咨询紧急医疗问题。如果你这样做了,请告诉你的医生你的情况。
“患者需要与医生沟通他们法学硕士学位的使用情况,说实话,医生也应该与患者沟通他们法学硕士学位的使用情况,”罗德曼说。“如果我们都能走出阴影,互相交流,就能进行更有成效的对话。”
这个故事的另一个版本也发表在了 User Friendly 的新闻通讯中。点击此处注册,即可订阅,下次阅读!
原文: https://www.vox.com/technology/461840/chatgpt-ai-google-medical-symptoms