Skip to content

搞英语 → 看世界

翻译英文优质信息和名人推特

Menu
  • 首页
  • 作者列表
  • 独立博客
  • 专业媒体
  • 名人推特
  • 邮件列表
  • 关于本站
Menu

我对法学硕士的看法

Posted on 2026-01-28

herman-1683556668-0.png

我本来不太想写这篇文章,因为Bear上已经有很多关于人工智能的讨论了,而且我看到有人抱怨我们有点像回音室,需要讨论其他话题——这种抱怨不无道理,但是管他呢,我写博客至少部分是为了帮助自己理清思路,如果有人抱怨也没关系。

朋友们指责我思维“非黑即白”。我对此感到有些不满,因为这等于否定了我的观点。也许这种说法并非完全错误,但确实带有轻视的意味。

我认为使用LLM在道德上是错误的。我认为许多个别使用LLM的行为本身并不违背道德,但我认为任何使用LLM的行为都是不道德的,因为它支持了LLM的进一步发展,而LLM本身就存在严重的伦理问题。

首先是盗作

要构建一个知识库模型(LLM),需要海量的训练数据。也就是说,需要所有书籍、艺术作品、电影和电视节目、YouTube 视频、博客文章、网站、软件,以及人类创造的一切。你或许并不在意你的博客文章、书籍或艺术作品未经许可就被知识库模型使用,但其他人却很在意。我们拥有完善的系统来防止创意作品被盗用。

在训练人工智能时,这些法律完全被忽视了。虽然已经有人就此提起诉讼,但这并不能改变什么。事情已经发生,人工智能公司也会继续横行无忌。这些作品被窃取并非为了个人消费,比如像盗版电影在家观看那样,而是为了制造一台能够取代人类创造力的机器,从而让少数资本家(这些机器的拥有者)赚取巨额利润。

当你向人工智能寻求信息时,你无需访问新闻网站阅读新闻报道,而是会得到人工智能提供的(窃取的)新闻摘要。当谷歌搜索结果显示人工智能的答案时,你不会点击链接进入网站,因此这些网站无法获得你的点击量,谷歌却能攫取所有广告收入。通过这种方式,谷歌不仅窃取了这些网站的创意作品,还窃取了他们的金钱。

(我其实支持盗版,尤其是那些已经收回成本的作品。但是,为了企业盈利和法学硕士用途而进行的盗窃与为了个人用途而进行的盗窃是不同的。 )

第二,地球资源

低层模型(LLM)的训练和持续运行需要大量的处理能力。许多公司正在构建自己的人工智能模型,并在美国乃至全球范围内建设数据中心。中国甚至在水下建造数据中心,以帮助其散热。

建设数据中心所需的原材料成本已经相当高昂——建筑材料、GPU、内存等等。数据中心电脑配件的采购导致普通消费者购买电脑配件的价格大幅上涨。但这还不是我最不满的地方。

数据中心需要大量电力,产生大量热量,并且需要大量的冷却措施。这加剧了气候变化。电力问题可以通过开发更多太阳能和风能以及建设新的核电站来在一定程度上得到解决。但就短期而言,至少有一家数据中心被发现使用非法能源(我猜是甲烷能源? ),这会造成严重的空气污染,并对附近居民的健康造成危害。

此外,实际情况是所有人的能源账单都在上涨。电力需求过大,电网几乎无法满足,因此每个人的能源成本都在上升。数据中心无需承担所有新增成本,而是由所有家庭用电用户共同补贴。我预计,随着能源容量的增加,这种成本上涨的趋势将在几年内趋于稳定。

其次是水资源。他们用水进行冷却,这会消耗当地资源。农业领域早已存在这个问题,大型农业生产商过度用水,损害了小型农户和居民的利益。我们不应该占用人们的水资源,不应该污染空气,不应该加剧气候变化,更不应该利用人工智能向这些公司发出信号,让他们继续这样做。这向立法者表明,民众希望如此。

第三,就业

美国共和党人大多支持数据中心,声称数据中心能创造就业机会。他们猛烈抨击民主党人反对数据中心,却对数据中心的种种弊端视而不见。但所谓创造就业机会的说法大多是谎言。许多与数据中心相关的工作岗位都集中在初期建设阶段。而参与建设的人员大多来自其他地区。

外来人口的涌入给当地经济带来压力,推高房价,并使人们的社区在经济上更难生存。这些建筑工作都是短期的。数据中心建成后,它们并非主要的就业来源,却会持续污染当地环境,推高能源成本,并消耗大量水资源。

此外,这些法学硕士项目还会导致失业和低质量问题。许多科技公司裁掉了大量程序员,却还在吹嘘他们利用人工智能编写了大量代码。然而,这些公司的代码漏洞和安全隐患却往往越来越多。甚至有律师被发现利用人工智能撰写法律文书,其中引用的案例都是虚构的。

游戏开发者利用人工智能生成3D模型,抢走了艺术家的工作。大型企业利用人工智能制作广告,同样抢走了艺术家的工作。此外,企业还利用人工智能生成的各种素材,针对不同种族群体,开展精准的广告宣传活动。这不仅会造成失业,还会带来反乌托邦式的负面影响:大型企业通过人工智能生成的、可无限操控的广告,对民众施加更大的控制。

我并不反对这样一个世界:我们都能减少工作时间,获得全民基本收入,或者过渡到无货币社会等等。但是,人工智能的匮乏并非我们未能实现这些目标的原因。过去一百年来,全球社会的生产力呈指数级增长,然而我们的目标仍然是“充分就业”,或者至少接近充分就业。真正的障碍在于社会政治因素,而非技术。当然,我也承认,如果人工智能取代了部分工作岗位,这或许能够积累推动后工作社会发展的社会政治资本。

第四,信息问题

深度伪造是最显而易见的例子。它能够生成看起来完全真实的视频和图像,以此传播政治宣传,并加强政府对民众的法西斯式控制。这种情况现在正在发生。虚假信息并非新鲜事,但人工智能深度伪造技术的出现使问题更加恶化。此外,对于普通人来说,观看视频时会产生一种全新的“这是真的吗?”的疑问,这令人不安。虽然这种疑问以前就存在,但现在的情况完全不同了。(另外,Grok 正在制作儿童色情内容,这个问题不会消失。)

他们会撒谎,但你分辨不出来。LLM(语言学习专家)沟通时语气自信。你问他们问题,他们会回答,而且听起来很有权威。苹果公司之前曾推出过通知摘要功能,但后来又撤回了该功能,因为它会提供虚假信息,歪曲新闻内容以及与亲朋好友的沟通信息。

理解语言学习模型(LLM)本身并不“知道”任何东西至关重要,这并非它们的工作原理。当你生成一幅图像时,没有人会认为人工智能“记住”了这幅场景,并向你展示它“记住”的内容。你明白这幅图像是生成的,是虚假的,是“想象”的产物。文本也是如此。它不会记住(窃取的)书籍、百科全书和网页。它所做的只是生成文本。这有点像自动补全功能,只不过要先进得多。这并非对知识的复述,而是基于复杂的底层数学模型,生成在给定上下文中看似正确的词语。

当然,法学硕士在信息方面确实有很多正确之处。但如果你使用他们的服务,你应该明白,他们运用知识的方式与你我并不相同。

我对面向消费者的图像人工智能工具也感到非常不安。它们可以改变颜色,可以移除照片中的人物,或者做任何其他事情。这使得(情感)虐待的伴侣可以轻而易举地对你撒谎,掩盖真相。我不想拥有虚假的记忆。我不想在分手后把前任从全家福照片中抹去。我不想把陌生人从背景中移除。我不想被谎言蒙蔽,无法了解我的真实生活。但现在,任何人都能轻易地通过编辑图像来捏造虚假的现实。

第五,论人性

所有这些被盗的数据、污染、能源价格上涨、资源枯竭、虚假信息和失业,表面上都是为了让我们的生活更轻松,但实际上却是在取代人类。

我热爱艺术——绘画、摄影、视频、电影、诗歌(好吧,我对诗歌不感兴趣)、小说等等——因为它们是人创作的。我对机器生成的艺术不感兴趣。生活的意义在于做人,做人该做的事,与他人建立联系。如果人类的创造力没有出口(因为我们消费的一切都是人工智能生成的),那么做人、活着就毫无意义。当然,即使人工智能已经接管了好莱坞,你仍然可以画画,制作一些无厘头的小视频。但我就是对电脑生成的“文化”不感兴趣。

其次是沟通方面。最近,Facebook Messenger 开始提示我用 AI 总结我最好的朋友最近发来的三四条消息。在 Facebook 评论里,它也极力引导我使用 AI 建议的短语。

坦白说,如果你用人工智能来总结我跟你说的话,或者用人工智能来回复我,那你就不是我的朋友。你只是个没有灵魂的按钮点击器,假装自己是人。真正理解我的话语并生成你自己的回复,这才是人类的本能,也是友谊和人际关系的全部意义所在。如果你用人工智能来做这些,那么这种联系是虚假的,友谊是虚假的,是个谎言。(当然,友谊还包括其他方面,比如一起玩游戏、共度时光等等,但你应该明白我的意思。)

我们现在甚至看到人工智能在撰写简历,人工智能在审核求职申请,这一切都是垃圾,毫无人性,冷酷无情,简直是反乌托邦式的。

很多人工智能产品的广告都极其反人类,简直就是在宣扬人渣行径。我记得有个广告,用人工智能帮你总结会议要读的文件,然后让你蒙混过关,因为你偷懒没好好干活。另一个更蠢的广告,是一个爸爸带着孩子让蜗牛和蛞蝓赛跑。爸爸让手机的人工智能预测谁会赢。拜托,老兄,你就不能好好陪陪孩子吗?

关于个人成长和学习,还有一点需要说明——当你使用人工智能来“了解”某些事情时,你实际上并没有学习,也没有成长。你为了获得想要的结果而走的捷径,也忽略了人类付出努力、学习和成长的过程。

第六,实用性

接下来我要稍微润色一下人工智能。

人工智能被宣传可以观察你的健身情况并提供建议和健身计划,还可以拍摄你家管道的照片并告诉你如何解决问题。这些功能都非常有用。但它们也反人类,依赖于窃取的信息,而且容易提供错误信息。尽管如此,它们仍然具有一定的潜在用途。

总结大型文件——比如说,你想了解学校董事会会议的要点,或者美国国会一份200页的法案。摘要对普通人来说可能很有用。但同样,摘要容易出错,而且已经有记者在做这类工作,这会降低可靠性,甚至会造成失业。不过,摘要仍然具有潜在的实用价值。

健康——这或许是美国的一个普遍问题,但无论你是否患有某种疾病,想要获得有效的治疗都可能非常困难。能够与人工智能“讨论”你的病情并从中获取信息,其潜在价值不言而喻。如果你正饱受疾病困扰,而医生却束手无策,那么我很难责怪你使用人工智能寻求帮助。当然,人工智能也容易提供错误信息,这会引发一系列新的隐私问题。但我承认它的实用性。如果你正在使用人工智能,请务必与你的医生讨论人工智能提供的信息,并且不要根据人工智能的建议采取任何冒险的行动。

我认为它在法律领域也可能有用,尤其对非法律专业人士而言。但你现在应该明白我的意思了。有用,但不可靠,会造成失业,扼杀人性,但或许真的有用。

人工智能让一些繁琐的任务变得简单得多。我之前抱怨过照片编辑。好吧,其实我们已经拥有功能强大的照片编辑工具好几年了。专家们能够从照片中移除人物、添加元素、制作惊艳的CGI特效等等。简化创作流程可以让人们更容易地将创意转化为可以与他人分享的作品。这当然很有价值。但我仍然讨厌它。

关于实用性我还可以继续说下去,但我就此打住吧。

结论

我反对人工智能。我对人工智能有一些非常实际的担忧,比如它会消耗地球资源、导致失业和信息混乱。此外,我也对人工智能窃取作品、侵犯用户同意权以及抹杀人类等问题深感伦理上的担忧。

对于我在这里抱怨的很多事情,都有很多反驳的观点。此外,我也确实希望看到一些具体的应用——例如,医学上的突破。

我也认为它对编程非常有用(尽管我拒绝使用它),但问题在于:既然不必如此费力地编写软件,我为什么要这么做?这个问题同样适用于许多创意领域,在某些情况下也适用于新闻业和法律领域。我编写代码的部分原因是我确实喜欢编程。但有些部分我不喜欢,也许可以外包出去。但我不会这么做。

这篇文章有两个目的。首先,我想呼吁大家停止使用人工智能,并总结原因。其次,我想整理一下自己对法学硕士(LLM)的看法和感受。

我认为使用人工智能进行任何目的都是错误的,这并非因为你用它做的事情本身不道德(尽管有时确实如此),而是因为使用它支持了一个更广泛的、极不道德的系统。即使用它来做“好事”,也仍然会助长所有“坏事”。

哦,我忘了说人工智能在军事行动中的应用。算了。

但我同时也明白,对于某些人来说,人工智能带来的好处可能非常显著,例如,如果你使用人工智能来帮助你管理个人健康。

我个人拒绝使用人工智能并不能阻止任何事情发生。你个人的拒绝也一样。但数据中心建在各个社区,而有一天,这个社区可能就是你的社区。当它来到你的城镇或州时,你应该做好准备,以切实有效的方式反对它,而且如果可以的话,你应该言行一致,不要虚伪。

我做正确的事,首先也是最重要的,是因为这是正确的,而且我想成为那种做正确事的人。我也关心这件事对世界更广泛的影响。单凭我个人的行动不足以解决问题,但集体行动可以,我们都应该把自己视为这个集体的一份子。

我不用Spotify,是因为他们给艺人的报酬只有其他平台的一半,因为他们花了1亿美元请Joe Rogan给那些平台纳粹,还因为他们的CEO资助人工智能战争。我选择用Deezer并不能解决Spotify的问题,但这确实意味着我不会助长Spotify的这种人间炼狱,也意味着我能比在Spotify上给艺人更多的钱。而且,切换平台超级简单,几乎不会影响我的生活。

如果每个人都努力做正确的事,并且愿意学习(或加入一个能为他们提供建议的社群)有关世界问题的知识,我们今天就不会有这些问题了。

但我知道,事情并非如此简单。我在商店购物时缴纳税款。这些税款资助了海外战争、加沙的种族灭绝以及我们街头那些纳粹分子。我开着烧汽油的皮卡。我观看大量的YouTube视频,为谷歌——一家参与战争、制造非法移民、侵犯每个人隐私的公司——创造了广告收入。

我并非无辜。我也助长了这人间炼狱。我并不热衷于所谓的“纯洁性测试”。但我坚信,只要力所能及,就应该做正确的事。然而,如果我以“没有其他可行的替代方案”为由,就断言我使用YouTube是正当的,然后又指责你使用人工智能是不正当的,这或许有失公允。我认为,更有可能的是,我使用YouTube的行为本身就是不正当的,而从道德伦理的角度来看,我应该停止使用。或许在接下来的几个月里,我会对此进行更深入的思考。

至少,我希望您能认真考虑我今天分享的信息,并反思您在这个系统中的参与。我分享这些信息并非为了羞辱或评判您,而是为了让您了解情况,倡导一个更美好的世界,并邀请您参与其中。如果您选择使用人工智能,我有责任给予您宽容,尊重您的选择,接纳您,并让您自由选择。

别着急。就算你愿意和我一样讨厌人工智能,也不必今天就做决定。好好想想。


就像我在关于畜牧业的帖子中提到的那样:

我逐渐认为,万恶之源并非金钱或权力,而是自满和割裂。

原文: https://reedybear.bearblog.dev/my-thoughts-on-llms/

本站文章系自动翻译,站长会周期检查,如果有不当内容,请点此留言,非常感谢。
  • Abhinav
  • Abigail Pain
  • Adam Fortuna
  • Alberto Gallego
  • Alex Wlchan
  • Alin Panaitiu
  • Anil Dash
  • Answer.AI
  • Arne Bahlo
  • Ben Carlson
  • Ben Kuhn
  • Bert Hubert
  • Big Technology
  • Bits about Money
  • Brandon Skerritt
  • Brent Simmons
  • Brian Krebs
  • ByteByteGo
  • Chip Huyen
  • Chips and Cheese
  • Christopher Butler
  • Colin Percival
  • Cool Infographics
  • Dan Sinker
  • David Walsh
  • Dmitry Dolzhenko
  • Dustin Curtis
  • eighty twenty
  • Elad Gil
  • Ellie Huxtable
  • Ethan Dalool
  • Ethan Marcotte
  • Exponential View
  • FAIL Blog
  • Founder Weekly
  • Geoffrey Huntley
  • Geoffrey Litt
  • Greg Mankiw
  • HeardThat Blog
  • Henrique Dias
  • Herman Martinus
  • Hypercritical
  • IEEE Spectrum
  • Investment Talk
  • Jaz
  • Jeff Geerling
  • Jonas Hietala
  • Josh Comeau
  • Lenny Rachitsky
  • Li Haoyi
  • Liz Danzico
  • Lou Plummer
  • Luke Wroblewski
  • Maggie Appleton
  • Matt Baer
  • Matt Stoller
  • Matthias Endler
  • Mert Bulan
  • Mind Matters
  • Mostly metrics
  • Naval Ravikant
  • News Letter
  • NextDraft
  • Non_Interactive
  • Not Boring
  • One Useful Thing
  • Phil Eaton
  • PostHog
  • Product Market Fit
  • Readwise
  • ReedyBear
  • Robert Heaton
  • Rohit Patel
  • Ruben Schade
  • Sage Economics
  • Sam Altman
  • Sam Rose
  • selfh.st
  • Shtetl-Optimized
  • Simon schreibt
  • Slashdot
  • Slava Akhmechet
  • Small Good Things
  • Steph Ango
  • Stephen Wolfram
  • Steve Blank
  • Taylor Troesh
  • Telegram Blog
  • The Macro Compass
  • The Pomp Letter
  • thesephist
  • Thinking Deep & Wide
  • Tim Kellogg
  • Understanding AI
  • Wes Kao
  • 英文媒体
  • 英文推特
  • 英文独立博客
©2026 搞英语 → 看世界 | Design: Newspaperly WordPress Theme