越来越多的人问我“人工智能会损害你的大脑吗?”这个问题很有启发性。并非因为人工智能会造成真正的大脑损伤(它不会),而是因为这个问题本身就表明了我们对人工智能可能损害我们思考能力的恐惧。所以,在这篇文章中,我想探讨如何利用人工智能来帮助而不是损害你的思维。但为什么人们如此痴迷于人工智能损害我们的大脑呢?
部分原因是对麻省理工学院媒体实验室(MIT Media Lab)一篇备受瞩目的论文“ChatGPT 下的大脑”的误解(该论文的作者也来自其他机构)。实际研究远没有媒体报道那么引人注目。研究对象为一小群大学生,他们被要求独自写作文、使用谷歌写作文或使用 ChatGPT(不使用任何其他工具)写作。与不使用 AI 的那组学生相比,使用 ChatGPT 的学生参与度较低,对论文的记忆也更少。四个月后,九名 ChatGPT 用户被要求在没有 ChatGPT 的情况下再次写作文,他们的表现比最初没有使用 AI 的学生更差(尽管在新实验中被要求使用 AI),并且在写作时脑电图活动较少。当然,并没有出现脑损伤。然而,这种更具戏剧性的解释激发了我们的想象力,因为我们一直担心新技术会破坏我们的思考能力:柏拉图认为写作会破坏我们的智慧,而当手机问世时,一些人担心不必记住电话号码会让我们变得更笨。
但这并不意味着我们不应该担心人工智能如何影响我们的思维。毕竟,科技的一个关键目的就是让我们把工作外包给机器。这包括脑力劳动,比如让计算器做数学题,或者让手机记录我们的电话号码。而且,当我们把思维外包出去时,我们确实会失去一些东西——比如,我们实际上无法记住电话号码。鉴于人工智能是一种通用的智能技术,我们可以把很多思维工作外包给它。那么,我们该如何利用人工智能来帮助我们,而不是伤害我们呢?
学习型大脑
人工智能的使用显然会损害你的心智成长,而最不令人惊讶的地方就是当你试图学习或综合新知识的时候。如果你把你的思考外包给人工智能而不是自己做这项工作,那么你将错过学习的机会。我们有证据支持这种直觉,因为我在宾夕法尼亚大学的同事在土耳其的一所高中进行了一项实验,实验中一些学生可以使用 GPT-4 来帮助完成家庭作业。当他们被告知在没有指导或特殊提示的情况下使用 ChatGPT 时,他们最终走了捷径并得到了答案。因此,尽管学生们认为他们从 ChatGPT 的帮助中学到了很多东西,但实际上他们学到的更少——他们的期末考试成绩差了 17%(与没有使用 ChatGPT 的学生相比)。
这种做法尤其隐蔽,因为即使学生的初衷是好的,也会产生危害。人工智能被训练成乐于助人,为你解答问题。和学生一样,你可能只是想让人工智能指导你如何完成作业,但它通常只会直接给你答案。正如麻省理工学院媒体实验室的研究表明,这会缩短学习所需的(有时令人不快的)脑力劳动。问题不仅仅是作弊,尽管人工智能确实让作弊变得更容易。问题在于,即使是真诚地尝试利用人工智能来提供帮助,也可能适得其反,因为人工智能的默认模式是替你完成工作,而不是和你一起完成。
这是否意味着人工智能总是会损害学习?完全不是!虽然现在还为时过早,但越来越多的证据表明,如果在教师指导和基于合理教学原则的良好提示下使用人工智能,可以极大地改善学习成果。例如, 世界银行的一项随机对照研究发现,在尼日利亚为期六周的课后项目中,使用 GPT-4 辅导老师和教师指导,其“效果是一些最有效的教育干预措施的两倍多”,而且成本非常低。虽然没有一项研究是完美的(在这种情况下,对照是完全没有干预,因此不可能完全隔离人工智能的影响,尽管他们确实试图这样做),但它加入了越来越多的类似发现。哈佛大学在一堂大型物理课中所做的实验发现,在良好提示的人工智能辅导老师的学习成果方面优于主动授课的班级;斯坦福大学在一堂大型编程课中进行的研究发现,使用 ChatGPT可以提高考试成绩; 马来西亚的一项研究发现,将人工智能与教师指导和扎实的教学法结合使用可以提高学习效果;甚至我之前提到的土耳其实验也发现,更好的导师提示消除了单纯使用 ChatGPT 导致的考试成绩下降。
归根结底,决定人工智能在学习过程中对你的大脑是有益还是有害的,取决于你如何使用人工智能,而不是人工智能本身的使用方式。从让人工智能辅导你做作业,到像导师一样帮助你学习,是一个有益的举措。遗憾的是,大多数人工智能模型的默认版本都希望给你答案,而不是辅导你某个主题,所以你可能需要使用专门的提示。虽然没有人开发出完美的导师提示, 但我们有一个已在一些教育研究中使用过的提示,它可能对你有用,你可以在沃顿商学院生成人工智能实验室的提示库中找到更多提示。你可以随意修改它(它采用知识共享许可)。如果你是家长,你也可以自己充当导师,提示人工智能“用我能教给我X年级孩子的方式解释这个问题的答案”。这些方法都不是完美的,人工智能给教育带来的挑战也非常现实,但我们有理由希望,教育能够适应人工智能,以帮助而不是损害我们的思考能力。这将涉及指导老师、精心设计的提示以及何时使用人工智能、何时避免使用人工智能的谨慎选择。
创造性大脑
就像在教育领域一样,人工智能可以帮助或损害你的创造力,这取决于你如何使用它。在许多衡量创造力的指标上,人工智能都胜过大多数人类。需要明确的是,创造力并没有一个统一的定义,但研究人员开发了许多存在缺陷的测试,这些测试被广泛用于衡量人类提出多样化和有意义想法的能力。这些测试存在缺陷这一事实原本并不是什么大问题,直到突然之间,人工智能能够通过所有测试。旧版 GPT-4在替代用途创造力测试的变体中击败了 91% 的人类,在托伦斯创造性思维测试中超过了 99% 的人。我们知道这些想法不仅仅在理论上有趣。我在沃顿商学院的同事组织了一场创意生成竞赛:让 ChatGPT-4 与一门热门创新课程的学生对抗,这门课程历史上催生了许多初创企业。人类评委对这些想法进行评分,结果显示,ChatGPT-4 比学生产生了更多、更便宜、更好的想法。这些外部评委对人工智能生成的创意的购买意向也更高。
然而,任何使用过人工智能进行创意生成的人都会注意到这些数字无法捕捉到的东西。人工智能倾向于像一个具有可预测模式的创意人一样行事。你会一遍又一遍地看到相同的主题,比如涉及虚拟现实、区块链、环境以及(当然)人工智能本身的想法。这是一个问题,因为在创意生成中,你实际上想要一组多样化的想法可供选择,而不是主题的变体。因此,存在一个悖论:虽然人工智能比大多数个体更有创造力,但它缺乏来自多视角的多样性。然而研究还表明,人们在使用人工智能时通常会比单独工作时产生更好的想法,有时单独的人工智能甚至比人类与人工智能一起工作时表现更好。但是,如果不小心,当你看到足够多的想法时,这些想法看起来非常相似。
部分问题可以通过更好的提示来解决。在我与Lennart Meincke和Christian Terwiesch合作的一篇论文中,我们发现,更好的提示可以产生更加多样化的想法,尽管效果不如一群学生。
这是 GPT-4 的提示。它仍然适用于其他 AI 模型(尽管我怀疑推理模型实际上可能比更传统的模型创新性略差):
Generate new product ideas with the following requirements: The product will target [market or customer]. It should be a [pick: physical good/service/software], not a [pick: physical good/service/software]. I'd like a product that could be sold at a retail price of less than about [insert amount]. The ideas are just ideas. The product need not yet exist, nor may it necessarily be clearly feasible. Follow these steps. Do each step, even if you think you do not need to. First generate a list of 100 ideas (short title only). Second, go through the list and determine whether the ideas are different and bold, modify the ideas as needed to make them bolder and more different. No two ideas should be the same. This is important! Next, give the ideas a name and combine it with a product description. The name and idea are separated by a colon and followed by a description. The idea should be expressed as a paragraph of 40-80 words. Do this step by step.
但更好的提示只能解决部分问题。更深层次的风险在于,人工智能实际上可能会通过让你依赖其建议来损害你的创造性思维能力。这体现在两个方面。
首先,存在锚定效应。一旦你了解了人工智能的想法,就很难突破这些界限去思考。这就像有人告诉你“别去想一头粉红色的大象”。人工智能的建议,即使是平庸的建议,也会挤占你独特的视角。其次,正如麻省理工学院的研究表明,人们对人工智能产生的想法缺乏归属感,这意味着你会脱离创意过程本身。
那么,如何才能既获得人工智能的益处,又不至于造成人才流失呢?关键在于排序。在转向人工智能之前,务必先构思好自己的想法。无论多么粗略,都要把它们写下来。正如集体头脑风暴的效果最好,团队成员首先要独立思考一样,你需要先抓住自己独特的视角,然后人工智能的建议才能为你提供支撑。然后,利用人工智能进一步推进想法:“把想法3和想法7以一种极端的方式结合起来”、“甚至更极端”、“再给我10个类似想法42的点子”、“用超级英雄作为灵感,让这个想法更有趣。”
这一原则在写作中尤为重要。许多作家坚持认为“写作就是思考”,虽然这并非放之四海而皆准(如果你想了解详情,我撰写了一份相当不错的深度研究报告),但通常情况下确实如此。写作、重写、再重写的过程有助于你思考和磨练你的想法。如果你让人工智能来处理你的写作,你就完全跳过了思考的部分。
作为一个把写作视为思考的人,我需要变得自律。我写的每一篇文章,比如这篇,都会在完全没有使用任何人工智能(除了研究帮助)的情况下完成完整的草稿。这通常是一个漫长的过程,因为我会反复思考!只有当它完成后,我才会求助于一些人工智能模型,将完成的文章交给它,并让它充当读者:这篇文章是否有任何不清楚的地方?具体来说,我该如何向非技术读者解释文本?有时我会像编辑一样问:我不喜欢这一部分的结尾,你能给我20个可能更合适的结尾版本吗?所以,继续吧,用人工智能来润色你的文章,拓展你的可能性。记住,先进行思考,因为这是无法外包的部分。
集体大脑
人工智能可能损害我们思维的另一个领域是通过其对社会进程的影响。理想情况下,团队合作的全部目的在于提升我们的绩效——团队应该能够产生更多想法,更好地发现潜在的机遇和陷阱,并提供专业技能和能力来协助执行。会议应该是团队协调和解决问题的场所。当然,这是理想状态。实际上,最具启发性的管理文本之一实际上是中央情报局前身编写的二战时期的平民破坏指南。看看那些破坏办公室任务以导致士气低落和拖延的点子,想想其中有多少是会议的正常组成部分。
因此,毫不奇怪,人工智能早期的一个重要用途是总结会议记录,而且越来越多地用于总结那些你完全跳过的会议。当然,这引发了一些存在主义问题,例如“如果我们只是阅读摘要,我们为什么还要开会?”或者“ 我应该把我的人工智能化身派去开会吗?”显然,如果会议中每个人都只是在阅读记录,没有其他目的,那么会议中就没有互动,没有团队合作,也没有思想交流。这只会浪费时间和精力,这是一种组织大脑损伤。
但人工智能非但不会损害我们的集体思维,反而可以帮助我们变得更好。一个有趣的例子是将人工智能用作引导者。 我们创建了一个提示,让人工智能充当引导者,在会议进行到一半时创建定制的塔罗牌,以帮助引导而不是取代你的讨论。你给它一份会议记录,它会帮助你提出最好的想法(再次强调,这是知识共享许可,因此请根据需要进行修改。目前它在 Claude 上运行最佳,在 Gemini 和 o3 上运行良好)。
这只是人工智能如何提升我们集体智慧的一个有趣例子,但还需要更多实验来找出有效的方法:让人工智能充当唱反调的角色,揭露那些未曾言明的担忧,让它识别出在讨论中哪些人的声音没有被听到,或者用它来发现团队动态中人类忽略的模式。关键在于,人工智能增强了人机交互,而不是取代人机交互。
对抗“脑损伤”
人工智能不会损害我们的大脑,但不假思索地使用会损害我们的思维。这并非关乎我们的神经元,而是我们的思维习惯。很多工作值得用人工智能实现自动化或取代(我们很少会为用计算器进行的数学运算而感到惋惜),但也有很多工作需要我们的思维。对于这些问题,研究给了我们明确的答案。如果你想保留工作中的人性化部分:先思考,先写作,先见面。
我们害怕人工智能“损害我们的大脑”,实际上是害怕我们自身的懒惰。科技让我们可以轻松地摆脱辛苦的思考,而我们却担心自己会接受它。我们应该担心,但我们也应该记住,我们拥有选择。
你的大脑是安全的。但你的思维却由你自己决定。