自从 ChatGPT 问世以来,科技界就搭上了新的炒作列车——就像之前加密货币、NFT 和元宇宙那样。这一次,我认为炒作传播得更快,因为它很容易上手——只需打开网站,开始打字即可。ChatGPT 迅速成为有史以来增长最快的产品之一,两个月内用户量就达到 1 亿。与以往的趋势一样,它也引发了大量的争议和强烈的意见。我使用过 ChatGPT 和其他大型语言模型 (LLM),甚至将它们添加到工作产品中。但即便如此,我仍然没有搭上人工智能的炒作列车。在这篇文章中,我将解释原因。

模型的创建
ChatGPT 和其他模型背后的模型都是使用来自互联网的文本进行训练的。问题是,这些公司没有向内容创建者或网站请求许可。他们只是爬取网页并复制他们能找到的一切。在这样做的同时,他们还给一些网站带来了大量流量,导致这些网站的带宽成本增加。( OpenAI 的机器人如何“像 DDoS 攻击一样”摧毁这家七人公司的网站)新闻网站等大型出版商已经就此起诉 OpenAI( 纽约时报起诉 OpenAI 和微软侵犯版权),一些出版商已经达成内容许可协议(与 Vox Media 建立内容和产品合作伙伴关系)。但小型网站和创作者根本没有选择。
有些公司,比如 Meta,甚至走得更远。他们不仅使用网络内容,还使用盗版书籍来训练模型。(人工智能盗版书籍问题的规模之大令人难以置信)如果是普通人这样做,可能会惹上大麻烦。但当估值数十亿美元的公司这样做时,他们通常都能逍遥法外。即使被罚款,金额通常也很小,甚至不会影响他们的年利润。
这些模型的训练方式已经是一个大问题。但更大的问题是,它们使用来自互联网的各种内容。他们这样做是因为他们需要大量数据来改进模型。这就是 Meta 转向盗版书籍的原因——他们已经使用了网上大部分内容。而这正是事情变得危险的地方。虽然大多数人只访问少数几个网站,但互联网上充斥着有害内容。这些模型都是根据所有这些内容进行训练的,这意味着它们最终可能会在答案中重复或使用这些有害内容。(使用 ChatGPT 获取常见安全相关信息和建议的风险)由于模型通常给出非常有信心的答案,因此很难判断某件事是对是错,尤其是对于年轻人而言。
一旦公司收集到数据,他们就会开始训练模型。这不像运营一个普通的网站。它需要专门的数据中心,配备专为人工智能训练打造的强大显卡。这些显卡耗电量巨大,这意味着需要生产更多的能源。正因如此,像微软这样的公司已经达成协议,重新开放旧发电厂。( 三哩岛核电站将重新开放,为微软数据中心供电)一些公司甚至正在建造使用化石燃料的新发电厂。( 人工智能可能会让我们在未来几十年继续依赖天然气)
但这不仅仅是需要更多电力的问题。这些数据中心还会带来其他问题。例如,它们会影响电网,并导致电源频率发生细微但重要的变化。(人工智能耗电如此之大,以至于让你的电网更糟糕)这可能会干扰数据中心附近家庭的电子设备。由于耗电量巨大,它们还会产生大量热量。为了冷却所有设备,它们需要大量的水,这可能会给当地供水带来问题。(人工智能正在从最需要水的地区抽水)情况变得如此糟糕,以至于像微软这样曾经致力于到2030年实现碳中和的公司,可能无法实现这些目标。( 微软对人工智能的痴迷正危及其气候目标)
模型的使用
在使用大量数据和电力来训练这些模型后,你会期望得到一些真正有用的东西。但是,尽管公司宣传这些模型好像它们可以解决世界上最大的问题,但人们实际使用它们的方式却可能令人失望。很多学生使用这些工具来完成作业,无论是在学校还是大学。(研究发现,26% 的 13-17 岁学生正在使用 ChatGPT 来帮助完成作业)当老师注意到作业质量提高了时,他们也会开始使用这些工具来批改作业。(老师们正在使用人工智能批改论文。 )律师也被发现使用人工智能工具来协助他们的法律案件。(律师事务所在员工“大量”使用后限制人工智能)现在,许多人使用人工智能来寻求有关金钱、人际关系甚至健康的建议。(人工智能模型会漏掉黑人和女性患者的疾病)如果你看看 Meta AI 泄露的聊天记录,你就会发现每天人们都在如何使用这些工具。( Meta 发明了一种新方法,通过分享人们与人工智能的聊天记录来羞辱用户)

这些用例经常被忽视,尤其是那些大力推广人工智能工具的软件开发者。作为一名软件开发者,我可以说,我们这个领域的许多人并没有真正考虑过他们所构建技术的长期影响。他们往往专注于有趣的问题和高薪。对于开发者来说,通过运行代码或编写自动化测试来测试这些模型的输出很容易。如果出现问题,可以直接撤消。但对于其他人——比如学生或律师——来说,事情就没那么简单了。学生可能会得到一个糟糕的成绩( 法院裁定,学校因使用人工智能而惩罚学生并无不妥),律师可能会在法官面前出丑。( Mike Lindell 的律师使用人工智能撰写辩护状——法官发现了近 30 处错误)
越来越多的人使用这些工具创作内容,目的只是为了病毒式传播,或者通过广告或联盟链接赚钱。这导致社交媒体和网站充斥着低质量、复制粘贴的内容。( AI 垃圾)甚至报纸也使用这些工具制作书单,其中甚至包括一些根本不存在的书籍。( AI 生成的暑期阅读书单如何在主流报纸上发表)
更糟糕的是,有些人用人工智能工具取代现实社交。现在有些初创公司提供人工智能女友服务。( 人工智能Tinder已经存在:“真人会让你失望,但他们不会。” )孩子们把这些工具当成真正的朋友一样对待——有些孩子最终患上了严重的心理健康问题,在一些悲惨的案例中甚至自杀身亡。( 一名14岁男孩为了接近聊天机器人自杀,他以为他们相爱了。 )现在人们争论时引用人工智能的回答,而不是进行真正的研究。我有一些朋友就是这样——他们相信ChatGPT胜过相信事实。我最终会花时间用真实可靠的信息来源纠正他们,尤其是在法律、税收、金钱和健康等严肃话题上。
长期风险甚至更大。我们可能会培养出一代不懂写作文、无法阅读和理解长篇文章、沟通能力差、难以处理真实人际关系的人。( 《聊天中的大脑:使用人工智能助手进行论文写作时认知债务的积累》 )大多数人并不知道这些模型实际上并不“理解”任何东西——它们只是预测句子中的下一个单词。它们并不聪明,但它们看起来很聪明,因为它们像我们一样说话。公司用“思考”和“理解”这样的词来描述这些工具,这让人们相信这些模型比实际更聪明。事实上,这些模型完全可以编造故事。(《 当人们不了解人工智能的工作原理时会发生什么》)
如今,许多公司力推这些工具来替代入门级员工,尤其是实习生和初级职位。但他们没有考虑到未来会发生什么,因为没有经过培训的初级员工可以成为高级员工。例如,Klarna 用人工智能取代了他们的客服( Klarna 首席执行官表示,公司一年前就停止了招聘,因为人工智能“已经可以胜任所有工作” ),但后来不得不回归人工客服。( Klarna 用真人客服减缓了人工智能驱动的裁员速度)因为归根结底,人们希望与他人沟通,尤其是在需要帮助的时候。
越来越多的人将依赖人工智能工具,并逐渐失去独立思考的能力。作为一名软件开发人员,你可能会觉得人工智能让工作效率提升了。但你自身的技能却可能逐渐下降。等你意识到这一点时,你可能已经失业了——而且还没准备好迎接下一份工作。最可怕的是,你可能甚至没有意识到这一切正在发生,因为工作成果看起来仍然很好。
金钱问题

人工智能无处不在,这并非偶然,而是因为各大公司都在其上投入巨资。像 Meta、微软、亚马逊和谷歌这样的巨头,每隔几个月就要花费数百亿美元,仅仅是为了购买训练这些模型所需的显卡。他们投入了巨额资金,但提供的人工智能工具却没有带来足够的回报。(人工智能的 6000 亿美元问题)为了让财务报告看起来更漂亮,他们开始裁员。( “白领血案”都是人工智能炒作的一部分)。与此同时,他们声称人工智能提高了他们的生产力,所以他们不需要那么多员工。
小公司正在模仿大公司的做法。他们也在人工智能方面投入资金,并声称他们完成了更多的工作。但在许多办公室工作中,很难以明确的方式衡量生产力。(无法衡量生产力)由于所有这些压力,即使是通常对技术趋势反应迟钝的苹果公司也感到有必要迅速发布“Apple Intelligence”。但像 Swift Assist 和 Siri 改进这样的许多东西甚至还没有推出,而且已经发布的部分并没有得到广泛使用。(苹果的人工智能并不令人失望。人工智能才是令人失望的)现在炒作已经变得如此之大,以至于公司和政府都被迫使用人工智能,只是为了让投入数十亿美元的投资者可以收回他们的资金。( 美国情报界正在拥抱生成式人工智能)与此同时,有些初创公司没有真正的产品却被花费数十亿美元收购——就像 Jony Ive 正在开发的那款。 ( OpenAI 以 65 亿美元收购 Jony Ive 的 AI 硬件公司)如果你看看这些初创公司的估值,很难看出它们如何能够赚到足够的钱来证明其估值的合理性。( 2025 年 AI 估值倍数)
所有这些都导致了一个大问题:货币化。ChatGPT 每周有大约 5 亿活跃用户,但其中只有大约 2000 万人真正付费订阅。这意味着绝大多数人认为它不值每月 20 美元。( OpenAI 对科技行业构成系统性风险)其他公司,如 Canva 和 Salesforce,在其工具中添加了 AI 功能,也提高了价格。( Canva 表示其 AI 功能值得 300% 的价格上涨, Salesforce 在推广新的 AI 功能时提高价格)即使你从未使用过 AI 工具,你仍然需要支付更高的价格。那是因为他们在构建和运行这些功能上花费了大量资金——他们必须以某种方式弥补。由于只有少数人付费,OpenAI、Antrophic、Microsoft 和 Meta 等公司免费提供 AI 工具,但有限制。科技界人士都知道:如果某样东西是免费的,那么你就是产品。人们经常利用这些工具分享非常私密的想法,有时甚至是他们不会告诉朋友或家人的事情。这使得公司能够建立详细的用户资料,然后利用这些资料来销售广告并尝试赚钱。( ChatGPT 正在获得“记忆”,以记住你是谁以及你的喜好)
但即便如此,这还不够。人工智能领域的投资比我们在科技领域——或者说任何行业——看到的任何投资都要大。所以现在各国政府都在签订合同。(推出政府版 OpenAI 、扩大政府使用 Claude 的渠道)这些工具将用于监视——不仅针对本国公民,还针对其他国家的人。据报道,美国军方已经从 Meta 和 OpenAI 等公司雇佣了员工。(陆军最新招募:来自 Meta、OpenAI 等公司的技术高管)众所周知,微软和 OpenAI 等公司正在获得政府合同。( OpenAI 赢得美国军方 2 亿美元“作战”合同)有一天,你可能会使用 ChatGPT 谈论敏感话题,然后发现自己被拒签甚至被驱逐出境——而你却不知道原因。
由于大多数个人用户不付费,所以钱都来自大公司。我知道有些大公司从 Anthropic 和 Cursor 等公司购买批量许可证,然后强迫他们的开发人员使用这些工具。这或许可以帮助公司提高工作效率,但员工并没有从这种生产力提升中受益——事实上,他们可能会变得更加依赖人工智能。( 研究表明,人工智能节省的时间被创造的新工作所抵消)当公司决定裁员时,这些人可能不得不继续自己使用人工智能工具,并开始自掏腰包支付费用。目前,最先进的人工智能模型每月花费高达 200 美元。不久前,它只有 20 美元。即使有这样的价格,像 OpenAI 和 Anthropic 这样的公司仍然没有盈利——所以他们可能会再次提高价格。最后,你可能会发现自己不得不支付一大笔钱才能继续工作。
公司的动机
如果你想了解科技行业目前的状况,你需要看看这些公司的动机。它们主要分为两类:新晋玩家和现有的科技巨头。
OpenAI 最初是一家非营利组织,但现在已成为人工智能热潮的代言人。( 《意外诞生的消费科技公司》)它正试图跻身大型科技公司的行列,甚至可能成为下一个苹果。一些 OpenAI 的前员工创立了 Anthropic,但除了使用 Claude Code 的软件开发人员之外,很少有人知道它。这些公司都有一个共同的目标:成为下一个科技巨头。
至于大型科技公司——微软、谷歌和 Meta——他们正试图捍卫自己的地位。微软已将 AI 功能添加到其所有产品中,但我怀疑微软内部是否有人真正相信这些功能会直接带来巨额利润,除非他们提高现有产品的价格。( 微软将 Office AI 功能捆绑到 Microsoft 365 中并提高了价格)他们真正的重点是基础设施——提供其他人用来训练和运行 AI 模型的工具和服务器。
谷歌正陷入恐慌。他们的整个业务都依赖于搜索,而搜索是他们广告收入的主要来源。如今,人工智能可以改变人们的搜索方式,他们正竭尽全力跟上这一趋势——但进展并不顺利。(谷歌在“让我们在披萨上涂胶水”之后为人工智能搜索结果辩护)
Meta 试图通过向公众发布其模型来脱颖而出。但当人们看到模型的低质量以及 Meta 操纵模型测试结果使其看起来比实际更好的事实时,他们很快就失去了兴趣。( Meta 在 Llama 4 基准测试中作弊)马克·扎克伯格似乎痴迷于寻找“下一个大事件”。首先,他向元宇宙投入了 500 亿美元,但我不知道有谁真正使用它。( VR 寒冬仍在继续)现在,他将人工智能融入到 Meta 的每一款产品中——WhatsApp、Instagram、Facebook——并将其称为“Meta AI”。最近,他甚至还在收购初创公司,并聘请顶尖人才组建一支专注于打造“超级智能”的团队。(据报道,Meta 启动人工智能超级智能实验室,并开出九位数的薪酬)

与此同时,亚马逊和苹果正在努力追赶。或许他们没想到人工智能浪潮会如此之大,或许他们缺乏足够的数据或人才,又或许他们只是想走一条不同的道路。在我看来,苹果脱颖而出。他们并非试图打造一个无所不知的聊天机器人,而是专注于将人工智能作为一种工具,帮助人们以更智能的方式与他们的应用和数据进行交互。他们还在研发设备内置人工智能和私有云系统,这样你的数据就能保留在你的设备上——即使不在设备上,也会在保护隐私的前提下进行处理。(私有云计算:云端人工智能隐私的新前沿)苹果的模型目前还不够完善,但我认为他们会迎头赶上,尤其是在 OpenAI 和 Anthropic 的模型最近也停止了改进的情况下。 ( 最近的人工智能模型进展感觉大部分都是胡说八道)我真正尊重的是,苹果并没有试图从苹果智能中赚钱,不像其他公司,因为他们已经通过向你出售硬件赚了很多钱。
最让我惊讶的是,人们如此迅速地信任这些新公司。他们分享个人想法,允许访问他们的设备,并让这些应用程序做各种各样的事情。当你安装他们的应用程序时,你通常就授予了他们控制你电脑的权限。一些公司只用几行代码就将他们的API深度集成到他们的系统中。而这些人工智能公司呢?他们并没有盈利,也没有长期赢得信任的经验。他们真正拥有的,是对更多数据来训练模型的巨大渴望。( “我失去了信任”:负责守护人类的OpenAI团队为何崩溃)
最后,这些公司一直在喊“人工智能将取代人类工作”。他们总是这么说,但经济学家们并不完全认同。( 诺贝尔奖得主达隆·阿西莫格鲁:不要相信人工智能的炒作)我不认为那些制造个人电脑的人会到处警告打字机会取代人类。这些人工智能公司的目标似乎不是让人们生活得更好,而是让人们失业。
产品问题
ChatGPT 最初并非真正的产品——它更像是一个研究工具。但随着时间的推移,它变成了一种人们与大型语言模型交互的方式。在某些情况下,聊天界面是有意义的,但大多数时候,我认为它效率不高。
如果你要查找某些内容,通常只需输入几个关键词即可获得一个链接列表。但使用聊天机器人时,你必须写出完整的句子,而你的打字速度限制了你的互动速度。这样一来,你得到的不是快速可扫描的链接,而是一大段文字。你读了它——但你始终知道它可能是错误的。在常规搜索引擎上,你只需查看网站域名、页面设计,甚至阅读“关于”页面,就可以判断来源。只需点击几下,你就可以快速做出决定。简而言之,搜索和浏览通常比阅读聊天机器人的答案要快得多。这就像有人用一段话描述一个景色,而不是只给你看一张图片。OpenAI 似乎已经意识到了这一点,因为他们添加了语音界面。( ChatGPT 现在可以看到、听到和说话)这可能对某些人有用,但速度也很慢。你无法浏览语音回复,而且它不是私密的——你无法在公共场合与它交谈。所以这仍然不是一个完美的解决方案。

最终,这些公司尝试了新的东西:代理。这个想法是,人工智能不仅仅是回答问题,还能真正为你做事——就像一个智能助手。但要做到这一点,首先需要有人定义代理能够处理的所有功能。然后,当你向聊天机器人寻求帮助时,它会选择合适的工具,将你的请求发送给第三方服务,并显示结果。这并不是什么新鲜事。我们多年来一直都有可以做事的机器人——唯一的区别在于,现在你是在聊天框中提问,而不是点击按钮。
起初,代理听起来很令人兴奋,尤其是对于企业而言。但同样,这其中有一个问题:必须有人定义代理可以使用的每种工具。这些模型还不够智能,无法在网上随机找到一个工具并弄清楚如何使用它。因此,Anthropic 发布了称为模型上下文协议 (MCP) 的东西,这基本上只是一种编写 API 文档的新方法——只不过这次,它适用于聊天机器人,而不是人类开发人员。(介绍模型上下文协议)您连接所需的所有 MCP,您的聊天机器人就会使用它们来完成任务。这对于不懂编程的人特别有用。我知道很多人已经在使用Zapier来自动化他们的工作。有了代理,他们甚至不需要构建流程——他们只需让聊天机器人去做就可以了。
但真正的问题是:如果智能体仅仅使用第三方工具来完成实际工作——比如翻译、计算或检索信息——这些公司为什么要花费如此多的时间和金钱来训练大规模语言模型?这些模型需要数月时间才能训练完成,而且耗电量比整个村庄还要多。如果它们唯一的任务就是与用户对话并交接任务,那么我们不需要拥有所有人类知识的模型——我们只需要一个擅长沟通并能选择合适工具的模型。如果你需要信息,只需连接到维基百科的MCP之类的平台即可。
这就是为什么我认为像 OpenAI、Anthropic 和 Meta 这样的公司存在严重的产品问题。另一方面,像苹果和谷歌这样的公司已经拥有优势。他们拥有 macOS/iOS 和 Android 平台,并且可以为邮件、日历、备忘录等默认应用构建自己的 MCP。这是苹果已经承诺但尚未实现的功能。(泄露的苹果会议记录显示了 Siri 的处境有多么糟糕)他们还可以让其他开发者创建可接入其系统的 MCP。这是一个真正的生态系统,而且可能真的有效。( 将操作与 Siri 和 Apple Intelligence 集成)
也许这就是 Anthropic 推出Claude Code的原因。编码非常结构化。你可以轻松地测试输出——运行它,编写测试,看看它是否有效。对于软件开发人员来说,这样的工具可以提高工作效率,节省阅读文档或查找错误等时间。但对于大多数其他职业,我认为这些工具帮助不大。老实说,我觉得这更像是 Figma 让设计师比 Photoshop 更有效率。Figma 并没有像 Photoshop 那样被大肆宣传,尽管它的价格差不多(20 美元/月)。而且,在实际使用和增长了六年后,Figma 的估值达到了 200 亿美元。( Adobe 将以 200 亿美元收购 Figma )
不仅这些公司,现在每家公司都在竞相打造带有“AI”的产品。他们真正的意思是:“你现在可以通过聊天窗口使用我们的应用了。” 仅此而已。他们把它宣传得像是一项巨大的创新,但大多数用户根本不使用它们。(客户根本不关心你的AI功能)
感受AGI
当前人工智能热潮的最大问题之一在于那些推动它的人。那些构建这些模型或围绕这些模型创办初创企业的人,自以为正在改变世界。因为他们已经筹集了数百万美元的资金,所以他们已经认为自己很成功了——即使他们的公司没有盈利。对于在 OpenAI 工作或曾经在那里工作的人来说尤其如此。( 《OpenAI 的混乱内幕》 )他们中的一些人被当作科技名人对待。甚至有一些团体表现得像粉丝俱乐部——甚至是邪教——这些人的一言一行都受到毫无疑问的欢呼。( 《OpenAI 的无政府主义科学主管是一位技术精神狂热分子》)
有了如此多的关注和赞誉,他们开始做出大胆的宣称也就不足为奇了。其中最重要的一个就是,通用人工智能 (AGI) 指日可待,而且他们将使用构建当今大型语言模型的相同方法来实现它。( 《人工智能帝国》作者谈 OpenAI 对 AGI 的狂热,以及 Sam Altman 为何试图诋毁她的著作)但许多研究表明,这些模型无法真正像人类那样推理或思考。(证据还是虚张声势?评估 2025 年美国数学奥林匹克竞赛的法学硕士)仅仅因为他们能够很好地运用语言就称他们为“智能”感觉很误导。( 《思考的幻觉:从问题复杂性的角度理解推理模型的优势与局限性》)
然而,普通人听到这些说法就会被吸引。他们毫不怀疑地相信了。现在越来越难向人们解释这些模型能做什么、不能做什么。很多人真的相信这些工具可以解决任何问题。他们无视警告,对得到的答案不加质疑,把这些工具当成魔法。( ChatGPT 正在成为一种宗教)最终,我们只剩下一群生活在泡沫中的人。他们相信这些工具会改变世界——但他们并没有真正关注正在发生的事情。
结论
这篇文章比我预想的要长,但我想从各个角度解释为什么我没有追随人工智能的潮流。人工智能存在太多的危险信号——模型是如何构建的,如何使用,对人类和地球的影响,背后的金钱,以及推动它的公司的动机。
所有这些公司都倾尽全力投入人工智能,仿佛它注定会成为下一个大热门。但问题是——过去所有的“大热门”都没有像这样被大力推动。它们在证明自己之前,并没有投入数十亿美元的资金。例如,iPhone 甚至在设计时就没有支持第三方应用。这种情况只是因为开发者想要加入而改变。它自然而然地发展起来,源于真正的需求。你不可能通过强行注入资金来推动一场革命。
这并不意味着这些工具完全没用。我自己有时会用它们——用于校对或解决棘手的编程问题。但我并不依赖它们。我不用付费,也不用注册账户。而且我绝对不会把它们当成能改变世界的东西。它们只是工具而已。就算它们明天消失了,也不会影响我的工作或生活。
最终,我看清了人工智能的本质:它是一种强大但有限的工具——并非革命,无法取代人类思维,更不值得崇拜。它自有其存在的意义,就像之前出现的所有其他技术一样。但我不会轻信那些炒作。当它有用时,我会继续使用它;当它无用时,我会忽略它,并始终质疑它。这不是抵制——这只是常识。
原文: https://mertbulan.com/2025/06/26/why-i-dont-ride-the-ai-hype-train/