Skip to content

搞英语 → 看世界

翻译英文优质信息和名人推特

Menu
  • 首页
  • 作者列表
  • 独立博客
  • 专业媒体
  • 名人推特
  • 邮件列表
  • 关于本站
Menu

伟大的伪装者

Posted on 2023-04-04

有充分的理由不相信今天的 AI 构造告诉你的东西,它与智能或人性的基本性质、与维特根斯坦的语言表示概念无关,甚至与数据集中的虚假信息无关。重要的是这些系统不会区分正确的东西和看起来正确的东西。一旦你明白人工智能认为这些东西或多或少可以互换,一切都会变得更有意义。

现在,我并不是要绕过各种形式的媒体和谈话中不断发生的关于这件事的任何引人入胜和广泛的讨论。从哲学家和语言学家到工程师和黑客,再到调酒师和消防员,我们每个人都在质疑和辩论“智能”和“语言”到底是什么,以及像 ChatGPT 这样的东西是否拥有它们。

这真太了不起了!我已经学到了很多东西,因为这个领域的一些最聪明的人享受他们在阳光下的时刻,而比较辣妹的嘴里会出现新鲜的新观点。

但与此同时,当有人问“所有这些 GPT 的东西怎么样,AI 变得多么聪明,有点可怕,对吧?”时,一边喝啤酒或喝咖啡,一边理清头绪是一件很困难的事情。你从哪里开始——亚里士多德、机械土耳其人、感知器,还是“注意力就是你所需要的”?

在其中一次聊天中,我想到了一种简单的方法,我发现它可以帮助人们理解为什么这些系统既可以非常酷又可以完全不可信,同时丝毫不影响它们在某些领域的实用性以及周围正在进行的令人惊叹的对话他们。我想我会分享它,以防你发现这个观点在与其他好奇的、持怀疑态度的人谈论这个问题时有用,他们仍然不想听到向量或矩阵。

只需要了解三件事,自然而然就可以得出结论。

  1. 这些模型是通过让他们观察巨大的文本数据集中的单词和句子等之间的关系而创建的,然后构建他们自己的内部统计图,了解所有这些数百万个单词和概念是如何关联和关联的。没有人说过,这是名词,这是动词,这是菜谱,这是修辞手法;但这些都是在使用模式中自然出现的东西。
  2. 这些模型没有专门教如何回答问题,这与谷歌和苹果等熟悉的软件公司在过去十年中一直称之为 AI 形成鲜明对比。这些基本上是疯狂的库,空白导致 API:每个问题要么被解释,要么产生一个通用的响应。对于大型语言模型,问题只是一系列与其他任何单词一样的单词。
  3. 这些模型在其响应中具有“自信”的基本表达品质。在猫识别 AI 的一个简单示例中,它会从 0(表示完全确定那不是猫)到 100(表示绝对确定那是猫)。如果它的置信度为 85 或 90,您可以告诉它说“是的,它是一只猫”,无论生成您首选的响应指标是什么。

因此,鉴于我们对模型工作原理的了解,这里是关键问题:它对什么有信心?它不知道猫或问题是什么,只知道训练集中数据节点之间的统计关系。一个小的调整可以让猫检测器同样确信图片显示的是一头牛、天空或静物画。该模型无法对自己的“知识”充满信心,因为它无法实际评估其训练数据的内容。

AI 正在表达其答案对用户而言正确的程度。

猫检测器是这样,GPT-4 也是这样——区别在于输出的长度和复杂性。人工智能无法区分正确和错误的答案——它只能预测一系列单词被接受为正确的可能性。这就是为什么它必须被视为世界上消息最全面的废话而不是任何主题的权威。它甚至不知道它在胡说八道——它已经被训练来产生一个在统计上类似于正确答案的响应,并且它会说任何话来提高这种相似性。

人工智能不知道任何问题的答案,因为它不理解问题。它不知道问题是什么。它什么都“不知道”!答案跟在问题之后,因为根据其统计分析推断,该系列的词最有可能跟在前一系列的词之后。这些词是否指的是真实的地方、人、地点等并不重要——只是它们像真实的一样。

这与 AI 可以创作出并非莫奈的类似莫奈画作的原因相同——重要的是它具有使人们将一件艺术品识别为他的所有特征。今天的人工智能以近似“睡莲”的方式来近似事实反应。

现在,我赶紧补充说,这不是一个原创或开创性的概念——它基本上是解释随机鹦鹉或海底章鱼的另一种方式。这些问题很早就被非常聪明的人发现了,并且代表了广泛阅读技术问题评论的重要原因。

伦理学家回击“人工智能暂停”信件,他们说“忽略了实际危害”

但在今天的聊天机器人系统的背景下,我刚刚发现人们直觉地得到这种方法:模型不理解事实或概念,但单词之间的关系,它的反应是答案的“艺术家印象”。当你认真对待时,他们的目标是令人信服地而不是正确地填空。这就是为什么它的反应根本不可信的原因。

当然有时候,甚至很多时候,它的答案是正确的!这并非偶然:对于许多问题,看起来最正确的答案就是正确答案。这就是使这些模型如此强大和危险的原因。您可以从对数百万单词和文档的系统研究中提取如此多的信息。与完全重现“睡莲”不同的是,语言具有灵活性,可以让近似于事实的反应也成为事实——但也可以使完全或部分虚构的反应看起来同样或更真实。人工智能唯一关心的是答案扫描正确。

这为围绕这是否是真正的知识、模型“理解”的任何东西、它们是否已经实现某种形式的智能、甚至是什么智能等等展开讨论打开了大门。带上维特根斯坦!

此外,它还提供了在真相不是真正关心的情况下使用这些工具的可能性。如果你想生成开头段落的 5 个变体来绕过作家的瓶颈,AI 可能是必不可少的。如果你想编一个关于两种濒危动物的故事,或者写一首关于神奇宝贝的十四行诗,那就去做吧。只要响应反映现实不是至关重要的,大型语言模型就是一个愿意和有能力的合作伙伴——而且并非巧合,这似乎是人们从中获得最大乐趣的地方。

人工智能在何时何地出错是非常非常难以预测的,因为模型太大且不透明。想象一下一个大陆大小的卡片目录,由机器人在一百年的时间里根据他们在飞行中提出的第一原则进行组织和更新。您认为您可以走进去了解系统吗?它对困难的问题给出正确的答案,对简单的问题给出错误的答案。为什么?现在,这是一个人工智能及其创造者都无法回答的问题。

这在未来很可能会改变,甚至可能在不久的将来。一切都发展得如此之快和不可预测,以至于没有什么是确定的。但就目前而言,这是一个有用的心智模型,需要牢记在心:人工智能希望你相信它,并且会说任何话来增加它的机会。

Devin Coldewey的The Great Pretender最初发表于TechCrunch

原文: https://techcrunch.com/2023/04/03/the-great-pretender/

本站文章系自动翻译,站长会周期检查,如果有不当内容,请点此留言,非常感谢。
  • Abhinav
  • Abigail Pain
  • Adam Fortuna
  • Alberto Gallego
  • Alex Wlchan
  • Answer.AI
  • Arne Bahlo
  • Ben Carlson
  • Ben Kuhn
  • Bert Hubert
  • Big Technology
  • Bits about Money
  • Brandon Skerritt
  • Brian Krebs
  • ByteByteGo
  • Chip Huyen
  • Chips and Cheese
  • Christopher Butler
  • Colin Percival
  • Cool Infographics
  • Dan Sinker
  • David Walsh
  • Dmitry Dolzhenko
  • Dustin Curtis
  • eighty twenty
  • Elad Gil
  • Ellie Huxtable
  • Ethan Dalool
  • Ethan Marcotte
  • Exponential View
  • FAIL Blog
  • Founder Weekly
  • Geoffrey Huntley
  • Geoffrey Litt
  • Greg Mankiw
  • HeardThat Blog
  • Henrique Dias
  • Herman Martinus
  • Hypercritical
  • IEEE Spectrum
  • Investment Talk
  • Jaz
  • Jeff Geerling
  • Jonas Hietala
  • Josh Comeau
  • Lenny Rachitsky
  • Li Haoyi
  • Liz Danzico
  • Lou Plummer
  • Luke Wroblewski
  • Maggie Appleton
  • Matt Baer
  • Matt Stoller
  • Matthias Endler
  • Mert Bulan
  • Mind Matters
  • Mostly metrics
  • Naval Ravikant
  • News Letter
  • NextDraft
  • Non_Interactive
  • Not Boring
  • One Useful Thing
  • Phil Eaton
  • Product Market Fit
  • Readwise
  • ReedyBear
  • Robert Heaton
  • Rohit Patel
  • Ruben Schade
  • Sage Economics
  • Sam Altman
  • Sam Rose
  • selfh.st
  • Shtetl-Optimized
  • Simon schreibt
  • Slashdot
  • Small Good Things
  • Steph Ango
  • Stephen Wolfram
  • Steve Blank
  • Taylor Troesh
  • Telegram Blog
  • The Macro Compass
  • The Pomp Letter
  • thesephist
  • Thinking Deep & Wide
  • Tim Kellogg
  • Understanding AI
  • Wes Kao
  • 英文媒体
  • 英文推特
  • 英文独立博客
©2025 搞英语 → 看世界 | Design: Newspaperly WordPress Theme