Skip to content

搞英语 → 看世界

翻译英文优质信息和名人推特

Menu
  • 首页
  • 作者列表
  • 独立博客
  • 专业媒体
  • 名人推特
  • 邮件列表
  • 关于本站
Menu

泔水的悲剧

Posted on 2025-08-09

在她的AI Weirdness 网站和她的书《You Look Like a Thing And I Love You 》中, Janelle Shane 分享了她对各种机器学习模型的实验,指出了最幽默的失败,然后解释了如果不考虑这项技术的所有潜在和实际的、已证实的陷阱,它会对社会造成严重危害。

她的帖子最近少了,因为科技(以及它无处不在的误用)已经发展到不再好笑的地步。这真是令人沮丧,概括了我目前的感受。

这篇文章的灵感源于一场关于人工智能的在线讨论,但这不仅仅是对此的回应,因为这也是我最近一直在思考的问题。这只是对一项原本可以成为真正具有突破性和实用性的技术的惨败的哀叹。

Stack Overflow 减去混蛋

我最感兴趣的是它在计算机视觉领域的应用。作为一个从 Commodore 64 开始编程的人,一个免费提供的系统能够通过照片或单个摄像头信号进行精确的手部追踪(以及精度稍差但仍然令人印象深刻的全身追踪),这至今仍令人难以置信。这还只是几年前的一个相对简单的案例;其他模型已经超越了这一点。在像树莓派这样小的计算机上运行物体识别模型也同样神奇。

它对计算机程序员来说也可能非常有用。没错,编程既是一门“艺术”,也是一门科学,但大多数程序员日常工作的主要内容是为已解决的问题实现新的解决方案,以及将现有的库或方法整合在一起以解决新问题。如果你有一个工具,它能用自然语言解释你试图解决的问题,并用一段(通常)功能齐全的示例代码进行响应,那会怎样?

或者换句话说:如果 Stack Overflow 真的有用,而不是被那些不善社交的混蛋所占领,他们拒绝回答你的问题,而是称你愚蠢,或者告诉你读这本书(尽管你显然已经读过)?

但即使是像这样一个清晰的例子,一个本应不费脑筋就能通过的申请,也充斥着如此粗俗的元素,根本无法掩盖法学硕士的臭名昭著。不,它并没有要求计算机发挥创造力,甚至没有要求计算机进行任何有意义的推理,而是掏空并贬低了制度化的知识。

“人工智能”最常见的辩护理由之一是它正在“民主化”,但事实并非如此:它把入门级职位视为易于替换的样板代码生成器,用于生成已解决的问题。这种做法目光短浅,因为它没有将入门级职位视为长期投资。它没有意识到,能够理解和推断解决方案,正是将入门级程序员变成经验丰富的老手,让他们在 Stack Overflow 上成为混蛋的关键。

不断进步

显而易见的是,将生成式人工智能应用于创造性工作会更加糟糕。这显而易见,但这何时能阻止富人眼中只有金钱,也无法阻止无数谄媚者为了公开维护富人而争先恐后地谄媚?

人们喜欢拿谷歌 DeepMind 早期版本生成的那些令人作呕的恐怖图像,与当前模型生成的那些毫无创意、千篇一律、光影粗糙的图像作比较,并坚称这项技术正在无限进步。这就像说,只要尤塞恩·博尔特坚持训练,他最终就能飞起来一样。

你可以理解为什么这个想法对那些财富积累依赖于无限增长的财富线的人有吸引力。那些拥有数百万或数十亿美元却仍然认为自己财富不足的人,并不是你想要的负责对技术的能力和应用进行理智合理评估的人。

然而,他们却举出真正进步的例子,却完全忽略或干脆无视最显而易见的根本问题。他们坚称,网上那些人是愚蠢的卢德分子,因为他们指手画脚,嘲笑生成式人工智能无法取代艺术家,因为他们连手指的数量都数不准。然后他们又说,所有质疑他们的人都是傻瓜,因为看,这个模型可以画五个手指,而且我们已经把所有外包的插画师都裁掉了。

这就像打开一个新的侏罗纪公园,然后说我们可以忽略之前所有的批评,因为你看,这些恐龙有羽毛。

向上失败

无限潜力/线下上涨的炒作很容易让人联想到加密货币,尤其是我们经常听到那些傲慢的白痴(通常是同一批白痴)说,任何批评这种炒作的人要么是技术含量太低,要么就是脑子太笨,根本无法理解。不过,至少这立刻就能被识别为传销骗局。而且,这项技术可能存在的任何真正应用领域都非常狭窄,以至于它无法被推向不该被触及的领域。

当前“人工智能”的炒作引人注目之处在于,它深入人心,甚至把批评也融入到了炒作之中。公开谈论这些系统的人会把错误称为“幻觉”,或者做出其他类似的尝试,将本质上极其复杂的预测文本生成器拟人化。

OpenAI 的“Sora”视频生成项目页面上,有一节视频是失败的,其中一段尤其令人不安,视频中一位女士未能吹灭蛋糕上的蜡烛,背景中有人试图鼓掌或正确控制双手,但都失败了。OpenAI 的描述将其描述为“幽默的一代”,而不是一场可怕的怪胎秀。在另一段描述中,它写道:“Sora 未能将椅子建模为实体,导致物理交互不准确。”

我觉得这尤其险恶,因为它伪装成透明客观的批评,但实际上只是炒作。它总是措辞谨慎,暗示两件事:1)这些只是一些漏洞,可以而且将会在不断无限改进的系统中得到解决;2)这些系统实际上在思考。如果你把“失败”称为“幻觉”的次数足够多,最终人们就会认为这些东西不是机器学习模型,而是大脑。

用户错误

因此,除了那些显而易见的抱怨,例如不道德的训练数据、极其不当的技术应用、摧毁高管们认为可替代的工作岗位、降低搜索引擎和客户服务体验,以及众多有据可查的环境问题之外,这一切都令人失望。那些原本可以从这项技术中真正受益的应用,却因过度炒作和滥用而受到了不可挽回的玷污。

你经常会在网上看到有人指指点点、嘲笑生成式“AI”连最基本的问题都答不上来,这当然是有原因的。我最近看到的一个例子是ChatGPT很容易复现、重复的例子,它竟然连“蓝莓”这个词里字母b的数量都数不出来。

“人工智能”的辩护者们很快就声称这无关紧要,因为这根本不是这些系统的设计初衷。但这种辩护的尝试恰恰表明事情已经偏离轨道太远了。如果你的软件系统给出了不可预测的糟糕结果,那它就是一个有问题的系统。将软件的已知故障归咎于用户错误,这简直荒谬至极,甚至令人反感。“你做错了。”

同样荒谬的是:“看看它能做这么多事,你还在抱怨这个?” 这表明人们对工具的用途缺乏根本性的理解。一个工具必须值得信赖,你才能坚持让世界各地的人都使用它。苹果在放弃谷歌地图转而使用自己的解决方案后发现,大多数情况下都正确是不可接受的。许多人觉得这种体验非常不可靠,以至于他们再也没有使用过,而且仍然不信任苹果的版本。

至关重要的是:将“人工智能”视为其本身并未建立或改进的技术的替代品,这实在是傲慢至极。要求Wolfram|Alpha进行基本的算术运算未免有些过头,但至少它能做到。科技巨头们用不可靠的“人工智能”系统取代了之前能够正常工作的工具,而对于明显的错误,他们只是耸耸肩,说句“倒霉事儿也得发生啊,你这家伙”。

显然,要求一个复杂的机器学习系统去做一些像计算单词中字母数量这样简单的事情,会造成巨大的资源浪费,但这并非网络勒德分子胡乱编造的“陷阱”。这是问题很大一部分。耗费大量资源,在每个谷歌请求中都注入“人工智能”的胡扯,这很浪费。耗费大量资源来制作几秒的视频,而这些视频本可以由熟练的3D艺术家制作,这也很浪费。通常,这只不过是一个极其昂贵且资源密集的解决方案,却在寻找一个已经被解决的问题。

为什么我们不能拥有美好的事物

在为这篇文章寻找图片时,我刚刚在 Google 中输入了“为什么我们不能拥有美好的东西”,下面是“AI”为我生成的一页长的回复的一小部分。

它对这个习语进行了冗长的解释,然后附上了一个我没要求的泰勒·斯威夫特视频的链接。然后,还有好几段带有项目符号列表的段落,声称要讨论这个表达及其含义,不知何故,还附上了同一首歌的另一个链接。最后只有一小段免责声明:“AI 的回答可能包含错误。”

这不会变成一个梗,因为它错得不够有趣。严格来说,它根本就错不了。只是完全没必要,让人沮丧。

这一切都以一种类似于BuzzFeed帖子或在线食谱开头的文字的风格呈现:语法上可能完全正确,也并非完全违背事实,但根本就什么都没说。我无法想象其中任何内容对任何人有用。至少,对于那些不想写些填充文字来凑字数的人来说,它毫无用处。它不过就是“内容”。充其量也只能说它占用了空间。

我曾经对这一切的未来发展充满乐观。新鲜感终将消退,泡沫终将破灭,人们最终会意识到自己被虚幻的谎言所蒙蔽。或许我们最终会开发出理智合理的机器学习应用,能够以合乎道德的方式进行训练,并高效运行。

然而,令人沮丧的是,现在人们之所以觉得生成式“人工智能”如此吸引人,似乎是因为它们不仅贬低了艺术家、作家和程序员的价值,还贬低了原创思想的价值。人们渴望的是填充物。

原文: https://spectrecollie.com/2025/08/08/the-tragedy-of-the-slop/

本站文章系自动翻译,站长会周期检查,如果有不当内容,请点此留言,非常感谢。
  • Abhinav
  • Abigail Pain
  • Adam Fortuna
  • Alberto Gallego
  • Alex Wlchan
  • Answer.AI
  • Arne Bahlo
  • Ben Carlson
  • Ben Kuhn
  • Bert Hubert
  • Bits about Money
  • Brian Krebs
  • ByteByteGo
  • Chip Huyen
  • Chips and Cheese
  • Christopher Butler
  • Colin Percival
  • Cool Infographics
  • Dan Sinker
  • David Walsh
  • Dmitry Dolzhenko
  • Dustin Curtis
  • eighty twenty
  • Elad Gil
  • Ellie Huxtable
  • Ethan Dalool
  • Ethan Marcotte
  • Exponential View
  • FAIL Blog
  • Founder Weekly
  • Geoffrey Huntley
  • Geoffrey Litt
  • Greg Mankiw
  • Henrique Dias
  • Hypercritical
  • IEEE Spectrum
  • Investment Talk
  • Jaz
  • Jeff Geerling
  • Jonas Hietala
  • Josh Comeau
  • Lenny Rachitsky
  • Li Haoyi
  • Liz Danzico
  • Lou Plummer
  • Luke Wroblewski
  • Maggie Appleton
  • Matt Baer
  • Matt Stoller
  • Matthias Endler
  • Mert Bulan
  • Mind Matters
  • Mostly metrics
  • Naval Ravikant
  • News Letter
  • NextDraft
  • Non_Interactive
  • Not Boring
  • One Useful Thing
  • Phil Eaton
  • Product Market Fit
  • Readwise
  • ReedyBear
  • Robert Heaton
  • Rohit Patel
  • Ruben Schade
  • Sage Economics
  • Sam Altman
  • Sam Rose
  • selfh.st
  • Shtetl-Optimized
  • Simon schreibt
  • Slashdot
  • Small Good Things
  • Steph Ango
  • Steve Blank
  • Taylor Troesh
  • Telegram Blog
  • The Macro Compass
  • The Pomp Letter
  • thesephist
  • Thinking Deep & Wide
  • Tim Kellogg
  • Understanding AI
  • Wes Kao
  • 英文媒体
  • 英文推特
  • 英文独立博客
©2025 搞英语 → 看世界 | Design: Newspaperly WordPress Theme