Skip to content

搞英语 → 看世界

翻译英文优质信息和名人推特

Menu
  • 首页
  • 作者列表
  • 独立博客
  • 专业媒体
  • 名人推特
  • 邮件列表
  • 关于本站
Menu

在德克萨斯大学就五角大楼/人类学问题发表讲话

Posted on 2026-04-03

?t=eyJpbWciOiJodHRwczpcL1wvc2NvdHRhYXJvb

上周四,我的朋友兼同事,德克萨斯大学奥斯汀分校英语系的萨姆·贝克(Sam Baker)召集了一个关于五角大楼/人类学事件进展的“紧急小组讨论”,并邀请我发言。尽管此后事态仍在发展,但我认为我为小组讨论准备的发言稿或许仍会有人感兴趣。文末,我补充了一些想法。


大家好!我是斯科特·阿伦森!我在德克萨斯大学奥斯汀分校教计算机科学。虽然我的专业背景是量子计算,但过去四年我一直在涉猎人工智能对齐领域。我曾在OpenAI的Superalignment团队工作过两年,当时他们已经解散了。我加入OpenAI的时候,他们的口号是“我们是一家小型非营利组织,所做的一切都是为了全人类的福祉,我们宁愿解散,也不会为了开发我们认为危险的人工智能而盲目行动。”我认识萨姆·奥特曼,以及许多其他OpenAI的现任和前任员工。我还认识达里奥·阿莫迪——事实上,在Anthropic成立之前我就认识他了。尽管如此,我并不觉得自己对Anthropic和五角大楼目前的状况有什么深刻的见解,这些见解你只要看看新闻,或者(尤其)看看兹维·莫肖维茨、凯尔西·派珀、斯科特·亚历山大和迪恩·鲍尔等评论员的文章就能了解。不过既然有人邀请我发表意见,我就试着说说。

首先我要指出的是:本届政府的立场,如果说他们一直保持着某种前后一致的立场的话,基本上就是他们需要切断与Anthropic的联系,因为Anthropic是一群觉醒的、仇美的左翼激进分子。我认为,如果你真正了解Anthropic的人,就会觉得这种描述相当可笑。除非本届政府所谓的“觉醒”指的是“除了盲目服从权威之外,还有一点原则,并且坚持这些原则”。

我的意思是,Anthropic之所以会陷入这种境地,是因为它比其他人工智能公司更热衷于支持美国国家安全,提供可以在机密网络中使用的Claude版本。所以他们与五角大楼签订了合同,合同中包含一些限制条款,五角大楼阅读并同意了这些条款……直到他们决定不再同意为止。

这就引出了我的第二点。五角大楼经常与私营公司签订合同,这些合同在很多方面限制了五角大楼的权限。这就是为什么它们被称为军事合同。因此,任何声称Anthropic试图限制政府对其私有财产的使用是史无前例的人——我认为这个人要么是消息不灵通,要么就是故意散布谣言。

第三点。如果五角大楼认为无法容忍一家私营公司告诉它当前人工智能的军事用途是否合适,那么五角大楼完全有权取消与Anthropic的合同,并寻找其他愿意配合的承包商(比如OpenAI……)。因此,在座各位必须明白,五角大楼的做法远不止于此。他们还说:因为Anthropic胆敢违抗我们的命令,我们将把他们列为供应链风险——这一认定此前只针对外国敌对国家,而令人难以置信的是,DeepSeek或其他可能构成此类风险的中国人工智能公司却从未被列入其中。所以,他们实际上是在威胁要摧毁Anthropic,方法是让所有与政府有业务往来的公司——也就是几乎所有公司——都难以再与Anthropic开展业务。

五角大楼威胁说,要么就这么做,要么我们就援引《国防生产法》将安特罗派克公司国有化——也就是说,我们会强行征用他们的知识产权,不管安特罗派克公司是否同意,我们都可以随意使用。你明白我的意思吗?克劳德既是供应链中一个对军方来说过于危险而无法使用的风险,又不知为何对供应链如此重要,以至于我们军方需要征用它。

在我看来,这正是五角大楼所作所为中专制主义的体现(而这种自相矛盾本身也是专制主义的一部分;除了独裁者,谁还能基于两个直接矛盾的理由强加自己的意志呢?)。这违背了我们整个经济赖以建立的自由市场原则,也违背了我们整个文明赖以建立的言论自由和良心自由。我认为这最终会损害美国国家安全,因为这会阻碍其他美国人工智能公司未来参与国防领域的工作。

这就引出了第四点,关于OpenAI。就在这件事发生的同时,Sam Altman在网上发帖表示,他同意Anthropic公司的底线:LLM(人工智能机器人)不应该被用于在没有人类参与的情况下杀人,也不应该被用于大规模监控美国公民。我当时想,太好了!在关键时刻,这些前沿人工智能实验室能够团结一致,而不是内讧。

然而,就在五角大楼将Anthropic列为供应链风险几个小时后,OpenAI就宣布与五角大楼达成协议。哈?!如果他们的底线相同,为什么一方能达成协议而另一方却不行?

专家们的最佳猜测似乎是这样的:Anthropic公司表示,使用人工智能自主杀人或监视美国公民本来就应该是非法的,但我们坚持将这些条款写入合同,以确保万无一失。而OpenAI公司则表示,五角大楼可以将我们的模型用于“所有合法用途”——这是五角大楼坚持的措辞。OpenAI公司继续说道,我们对“所有合法用途”的解释是,他们不能越过这些红线。但如果事实证明我们的理解是错误的……那可不是我们的问题!那是五角大楼和法院之间的事情,或者其他什么机构的事情。

我们仍然无法完全确定,因为大多数相关合同尚未公开,但这只是从已公开的信息中推断出来的。

早在2023-2024年,当董事会内部发生激烈争执,随后又围绕OpenAI治理结构改革等问题展开辩论时,一些人对Sam形成了一种看法:他会说一些冠冕堂皇、积极向上、富有责任感的话,但实际上却会做任何能最大化公司收益的事情。至于上周发生的事情是否符合这种看法,就留给各位自行判断吧。

好的,第五点,也是最后一点。我记得15到20年前,我和埃利泽·尤德科夫斯基以及其他一些人讨论过人工智能,他们都感到非常恐惧。他们说,这是世界面临的最大问题。任何人都不能开发人工智能,因为它可能会反过来对付我们,或者更早之前,军方可能会征用它,或者其他什么情况。我和其他人当时就想,老兄,你们显然科幻小说看多了!

而现在,我们身处这样的境地。我们不仅生活在科幻故事里,而且我认为我们还生活在一个极其老套的故事里。我的意思是,军方高层走进顶尖的人工智能实验室,对那些书呆子们说:“没办法,你们的人工智能现在归我们所有了”?现实难道就不能更有创意一点吗?

关键在于,鉴于过去几周的事态发展,我认为我们现在应该彻底摒弃那种反对未来人工智能发展前景的论点,即“抱歉,这听起来太像科幻小说情节了”。正如之前所说,你最好习惯科幻小说,因为你正生活在科幻小说的世界里!


最新进展及补充说明:我当然已经看到,Anthropologie公司已提起诉讼,试图阻止五角大楼将其列为供应链风险企业,理由是其言论自由和正当程序权利均受到侵犯。我希望他们的诉讼能够成功;我很难想象他们会失败。

很显然,在这次争议中我站在了人本主义这边,但这并不意味着我会永远站在人本主义这边。无论在什么情况下,至关重要的是不要把自己的良心外包给任何人。

兹维做了一个非常贴切的比较:

[在关闭乌克兰上空的星链服务时,]埃隆·马斯克实际上做了五角大楼指责Anthropico可能正在做的事情。他以一个普通公民的身份,在一场生死攸关的防御性战争中,基于他对局势的判断,在最高层面上做出了关乎国家安全的战略决策。说真的,这他妈到底是怎么回事?

最终我们通过合同购买了这些服务。我们没有没收它们,也没有逮捕马斯克。因为合同就是合同,你的私有财产就是你的私有财产,直到马斯克决定你的财产不算数为止。

兹维的文章中还有一段格雷戈里·艾伦的关键引述:

事情是这样的。我大半辈子都在国防部工作,试图说服硅谷的公司:“嘿,来吧,水质很好,国防承包市场,你知道,在这里你可以过上好日子,不妨先试一试。”

国防部刚才的表态是:“任何胆敢试探的公司,我们保留随时抓住其脚踝,将其彻底拉入水中的权利。” 这无疑会严重打击企业与国防部开展合作的积极性。

最后,我想回应一下针对人本主义立场最常见的反驳论点——例如诺亚·史密斯提出的论点,或者我在之前那篇相关帖子下的评论。这个论点大致如下:

你们这些书呆子,不是多年来一直嚷嚷着人工智能可能对人类生存构成威胁吗?那你们真的以为能一直掌控这项技术吗?如果它真像你们说的那样危险又重要,那么军方当然会在某个时候介入并没收你们的新玩具,就像你们在制造核武器时军方会做的那样。

两种直接回应:

  1. 即使在二战期间,在人类历史上最绝望的处境之一,美国政府也没有用枪指着任何一位科学家强迫他们制造核武器。科学家们都是出于自愿,基于他们当时经过深思熟虑的道德判断而这样做的(即使有些人后来对自己的参与感到后悔)。
  2. 即使我认为像达里奥·阿莫迪这样相对有思想、有原则的人最终会把未来拱手让给像皮特·赫格塞斯这样幸灾乐祸的野蛮人是“不可避免的”,但这并不意味着当这种情况发生时我就不能抱怨。这里毕竟还是个自由国家,不是吗?

原文: https://scottaaronson.blog/?p=9627

本站文章系自动翻译,站长会周期检查,如果有不当内容,请点此留言,非常感谢。
  • Abhinav
  • Abigail Pain
  • Adam Fortuna
  • Alberto Gallego
  • Alex Wlchan
  • Alin Panaitiu
  • Anil Dash
  • Answer.AI
  • Arne Bahlo
  • Ben Carlson
  • Ben Kuhn
  • Bert Hubert
  • Big Technology
  • Bits about Money
  • Brandon Skerritt
  • Brent Simmons
  • Brian Krebs
  • ByteByteGo
  • Chip Huyen
  • Chips and Cheese
  • Christopher Butler
  • Colin Percival
  • Cool Infographics
  • Dan Sinker
  • David Walsh
  • Dmitry Dolzhenko
  • Dustin Curtis
  • eighty twenty
  • Elad Gil
  • Ellie Huxtable
  • Ethan Dalool
  • Ethan Marcotte
  • Exponential View
  • FAIL Blog
  • Founder Weekly
  • Geoffrey Huntley
  • Geoffrey Litt
  • Greg Mankiw
  • HeardThat Blog
  • Henrique Dias
  • Herman Martinus
  • Hypercritical
  • IEEE Spectrum
  • Investment Talk
  • Jaz
  • Jeff Geerling
  • Jonas Hietala
  • Josh Comeau
  • Lenny Rachitsky
  • Li Haoyi
  • Liz Danzico
  • Lou Plummer
  • Luke Wroblewski
  • Maggie Appleton
  • Matt Baer
  • Matt Stoller
  • Matthias Endler
  • Mert Bulan
  • Mind Matters
  • Mostly metrics
  • Naval Ravikant
  • News Letter
  • NextDraft
  • Non_Interactive
  • Not Boring
  • One Useful Thing
  • Phil Eaton
  • PostHog
  • Product Market Fit
  • Readwise
  • ReedyBear
  • Robert Heaton
  • Rohit Patel
  • Ruben Schade
  • Sage Economics
  • Sam Altman
  • Sam Rose
  • selfh.st
  • Shtetl-Optimized
  • Simon schreibt
  • Slashdot
  • Slava Akhmechet
  • Small Good Things
  • Steph Ango
  • Stephen Wolfram
  • Steve Blank
  • Taylor Troesh
  • Telegram Blog
  • The Macro Compass
  • The Pomp Letter
  • thesephist
  • Thinking Deep & Wide
  • Tim Kellogg
  • Understanding AI
  • Wes Kao
  • 英文媒体
  • 英文推特
  • 英文独立博客
©2026 搞英语 → 看世界 | Design: Newspaperly WordPress Theme