Skip to content

搞英语 → 看世界

翻译英文优质信息和名人推特

Menu
  • 首页
  • 作者列表
  • 独立博客
  • 专业媒体
  • 名人推特
  • 邮件列表
  • 关于本站
Menu

计算机曾经是一份工作,现在是一台机器;接下来是分析师

Posted on 2023-03-03

JPL employees

努力工作的计算机,NASA

今年伊始承诺进行更多实验。这在一定程度上也是为什么在过去的几周里我写了很多关于 AI 和各种思考它的方法的原因。但我认为了解它的实际运作方式很有用。所以我做了一堆关于我现在可以用它做什么的实验,下面是我认为可能会发生的事情!

在计算时代的黎明,昔日的微处理器开始并创造了一场确定性革命1 。逻辑门在他们允许的范围内是严格的。您输入的内容决定了输出的内容,并且可以证明并且可重复地相同。

事实上,直到最近,这才是将 AI 应用于事物的问题。虽然你在广告或新闻源等领域看到了大量应用,但在没有更高准确度就无法生存的领域中,应用要少得多。就像医学或执法一样。需要多个 sigmas 精度的事情过去是,现在仍然是 AI 的致命弱点。

那是因为它试图像一个黑盒计算器一样工作,以足够的准确性重复进行类似机械的操作。相反,我喜欢将 LLM 概念化为模糊处理器。一个在分析方面做得更好的人,这是一项服务工作。它在其阶段的许多部分已经没有很高的准确性,但它确实需要大量信息的巧妙组合2 。

我们可以从小事做起,像对待乐高积木一样对待他们。可以说langchain和其他人开始提供帮助。但是乐高积木必须手动构建。尽管人们建造了月球大小的战舰,但制造它们的复杂程度是有上限的。诀窍是尝试让零件自行组装。

如今,他们会产生幻觉,有时还会产生奇怪的输出,尤其是在对话模式和零镜头模式下完成时。但我们今天对待这些产品及其变体就像对待计算机一样。询问 Bing、Sydney、ChatGPT。让它写诗,问它关于历史奥秘的问题。

我认为这可能就是为什么我们尝试将其拟人化的原因。相反,如果我们将它们视为我们将部分思维外包给的处理器,那么错误就会变成需要纠正的错误。这就是为什么我喜欢模糊处理器类比3的原因。法学硕士的力量,在今天看来令人惊叹,并不局限于按需创作诗歌。当您将其中的 10,000 个链接在一起时,就像处理器一样,真正的魔法就会发生!

您每天进行多少次 Google 搜索? ChatGPT 请求怎么样? 100? 500?一切以人为本。在最后一分钟,您的处理器可能在没有做很多事情的情况下获得了大约 25,000 次 ping。

这是近 20 年来第一次有可能构建真正史诗般的东西,一个操作系统来构建一个全新的类别。让我们从我所说的三个示例开始,记住这些就像我们在 DOS 上编写的 Hello World 程序!

三个例子

一个简短的回避步骤,看看我们如何创建乐高积木。以下是我尝试尝试并自己稍微测试一下功能类型的三个示例。 (如果您不觉得这很有趣,请随意跳到下一节,或者如果您需要更多屏幕截图,请在脚注中找到。)

  1. 通过创建搜索条目找到答案,找到最重要的条目和与您的问题相关的主题,然后总结最热门的搜索链接

我们现在可以迭代查询并实时了解我们喜欢的任何事情,并将处理器与真实世界的信息联系起来。

我是根据家人的旅行计划做的,对我们喜欢的东西有限制。但想象一下这里有什么可能。我们可以搜索特定的数据库,比如只搜索科学论文,我们可以根据特定的属性进行预选,比如作者机构或引用,然后让 LLM 为你总结。或者 YouTube 视频并在总结之前转录它们。

今天,有时搜索不是很好。我找到的解决方案是使用另一个 LLM 调用来首先提取任何关键实体或相关信息,然后进一步优化查询。这意味着从搜索引擎和 LLM 开始,我们现在基本上可以使用它们来创建、研究和分析多个假设,并从中进行选择4 。

更多这里5 !

  1. 上传文档或目录,找出文件类型,并将它们编入索引以进行问答,或递归总结任何查询的答案

我尝试的另一件事是找到越来越复杂的偷懒方法。在编写 Strange Loop 的过程中,我阅读了一些论文、书籍和许多无聊的网站。

其中大部分内容当然是试图找出文档实际所说内容的要点,并进行相当多的来回询问。因此,我尝试了递归摘要(将文本切成块并分别对每一位进行摘要,然后对摘要进行摘要)并创建嵌入来搜索文本,这很有用!我们可以对整个目录做同样的事情,在那里我们可以读取里面的所有文件并做完全相同的事情6 。

如果启动得当,它甚至可以进行比较,并对每个块进行签名以确保我们有引用!

在 Strange Loop Canon 中搜索作者对他的老家新加坡的看法

(如果你是那种阅读 Strange Loop Canon 的人,这就是它认为你喜欢的人才选择7 。)

  1. 将问题分解为核心元素,分离每个实体,使用 Wolfram Alpha 进行计算并总结结果

对于大量查询,很难从 GPT-3 的文本自动完成中获得直接答案,因为预测下一个标记与实际计算某物的工作原理是两码事。

为此,您可以提取实体或要求 LLM 以计算形式表达特定问题,然后将其传递给 Wolfram Alpha 让它回答问题。

困难主要是因为我想知道的问题类型并不是特别计算性的,计算元素在许多问题中是“固有的”,而不是要点。

但这确实意味着我们可以找到商品的价格,如果你想知道特斯拉的表现,这就很重要了

更多在这里8 !

还缺什么

在我的探索中有趣的是,如果不经过大量的反复试验,要弄清楚这些新的模糊处理器什么是可能的,什么是不可能的并不是那么容易。为了处理通过它们传入的数据,它们必须“了解”我们所生活的世界。

这意味着它不是一个简单的处理器,而是一个内部有迷你世界的处理器。到目前为止,大多数处理器将它们正在处理的内容与它们使用的方法分开,但在这里它们错综复杂地联系在一起。

如果您真的愿意,这就是人们假设 GPT-3 内部存在麦克斯韦妖的地方,拉动它的矩阵弦使答案成真。但唯恐我们拟人化太多,这也是我们可以将其用作小型模块化堆栈的原因。

处理这些迷你世界很困难,因为我们还没有它们的操作码,没有关于如何使用它们的手册,也没有超越过去几年我们共同创造的试错猜测的途径.

就像,对于我问的大多数问题,包括许多总结和问答问题,需要的是一个“持续监控”模块,它可以提取答案中需要计算的方面。

“持续监控”模块需要来自备用 LLM 的更多常规输出 <> 输入,在今天并不容易,但很快就会变得可行。

建造它需要我们几年的时间,但这是值得的!

所以,建立你自己的个人分析师

就像原来的处理器很弱,不能做很多事情一样,只有将一大堆处理器结合在一起,你才能获得魔力。

当我们以前这样做的时候,我们有个人电脑。当我们现在这样做时,我们会得到个人分析师。

将所有这些联系在一起,我们已经可以看到它栩栩如生,尽管形式更简单。可以:

  • 阅读并总结任何文档

  • 创建可以聪明地获得答案的问题,然后对其进行问答

  • 如果需要,对照另一组文本检查答案

  • 根据需要计算事物,如果答案需要的话

  • 上网查查不熟悉的东西,总结答案

  • 以最有影响力的各种格式编写它们

如果您想扩展它以创建更聪明的分析师,我们可以进一步添加模块:

  • 添加 LLM 模块以测试答案和摘要,并检查它们是否“叠加”到任何任意能力

  • 使这些模块针对特定任务进行微调——检查答案的模块不必与创建答案的模块相同,监控性能的模块不必与充当“图书馆员”进行搜索的模块相同并从谷歌中提取信息

  • 使模块特定于您的输入,从个性到特定数据集,并“允许”代表您采取某些行动

  • 是的,一个模块可以接受任何产生的答案,并在它的末尾创建一个美丽而令人回味的书面输出——一篇文章、一张图片、一首诗、一首挽歌等等!

想想这些能做什么!在业务环境中,它可以处理编码、客户交互、编写报告、分析仪表板、创建几乎任何类型的内容或对其进行编辑,并采取措施读取/编辑/写入您选择的数据库或发送 Slack 消息或者 …..

这让我得出了最令人惊讶的结论:LLM 的大多数错误都可以通过添加更多的 LLM 调用来改善。

模糊处理器是我们一直在做的下一个计算块的解锁,即使我们将计算卸载到机器上也是如此。随着成本下降 90% 并再次成倍下降,这些更接近现实。

我们今天开始看到这一点。今天,像Consensus和Elicit这样的公司正在将各个部分连接在一起,以创造出真正有价值的输出,这在以前需要一名研究助理——帮助研究总结、搜索、找出要问的新问题等等!

像大多数自动化一样,它大大增加了个人做更多事情的潜力。

曾经有“计算机”,由女性组成的团队计算复杂的数值问题,帮助我们登上月球,现在被我们贺卡中存在的计算量所取代。

这里的一台新机器可能会取代“分析师”——分析复杂问题的人员团队,他们帮助产生了世界上许多伟大的创新,他们将慢慢被取代。

当“计算机”被计算机取代时,就有了分工。计算机的计算部分实现了自动化,而计算的思考部分却没有。它慢慢迁移到我们创建和应用算法以帮助理解世界的方法中。

同样,当分析师被“分析师”取代时,就会出现分工。公司内部和外部将开始出现责任转移的趋势。我认识的每个分析师都认为他们的大部分工作都是“胡说八道的工作”,即使边界扩大,这也会变得自动化。

也许这是一份需要开公司的工作。或者一个新的Homebrew Analyst Club来试验和开发这项技术。

谁的游戏?

File:Invitation to First Homebrew Computer Club meeting.jpg

如果您喜欢这篇文章,您可能还喜欢:

  1. “哦,冰,请不要作恶”

  2. 生成式 AI:任何机器的任何东西

  3. 不要惊慌:反对 AI 上的巴特勒圣战

JPL's human computers

电脑空转,JPL

1个

这里的战斗让我想起了过去的筹码大战。 Intel 4004 开始它的生活试图成为 MOS 硅栅技术王者,准备计算。很快,市场上出现了多个用于特定任务的专用处理器,随着通用处理器变得越来越好,这些处理器逐渐被淘汰。

您拥有数字信号处理器,专门用于实时有效地处理音频和视频。你有现场可编程门阵列,用于航空航天和国防等。你有浮点阵列,旨在执行高速浮点运算,或网络处理器,旨在执行其同名任务。

并且有一些公司建立在这个基础上。用于 FPGA 的 Xilinx,或 Altera。 Analog Devices 的 DSP 芯片。 Altera 被 Intel 以 160 亿美元收购,AMD 以 350 亿美元收购了 Xilinx。

这有点类似于 AI 世界。我们拥有像 GPT-3 这样的基础模型,这些模型由现在规模足以成为现有企业的初创公司构建,并且我们有人试图创建自己的通用处理器或与这些通用处理器竞争。

2个

模糊处理器在这里特别熟练。它们建立在生成人工智能的基础上,生成的人工智能可以是任何机器的任何东西,并且它们内部有某种版本的内部世界模型。因此,他们倾向于对大量人类问题给出相对连贯但不确定的答案。就像计算器工作是因为算术运算的想法对它“有意义”一样,LLM 可以“理解”单词,只是在更模糊的程度上。

但是因为 AI 本身变得越来越好,而且因为 LLM 提供了新的处理器,我们现在可以做更多的事情。

3个

正如一位朋友指出的那样,这可能更适用于小芯片而不是处理器,但我更喜欢处理器的声音作为类比

4个

我也在 linkedin、www.strangeloopcanon.com 和 twitter 上为我的个人资料做了这个,它很好地了解了我对人才、初创公司和 AI 的看法。随着您可以向 LLM 提供的信息类型的增加,我们也可以以我们未曾想到的方式使用这些处理器!

5个

对于旅行,这可能意味着提取有关地点、时间或旅行的特定信息,并创建替代搜索选项。这意味着您可以相互测试几个选项,如果您想要(同时检查您想要的旅行,它是相反的,或者它的同伴搜索)。

现在,如果您愿意,您可以添加另一个 LLM 以从搜索中进行选择,并根据您的喜好进行优化。

来自Oh Bing,请不要作恶,尽管此搜索是基于动物的旅行!

这不是很不可思议吗?

6个

整个过程中最困难的部分(对我而言)是采用任意格式的文档并从中获取文本而不会完全搞砸。但是当你这样做时,你甚至可以将它输出到表中!

这是我教它阅读年度报告,根据不同类型的风险起草多个摘要选项,并包括文档中的特定信息

7

对我来说,下一个推断是尝试弄清楚如何将它们联系在一起。 Q&A 和摘要都(可能必然)有点止痛药,但我发现通过更好的提示或什至事后反复提示可以解决这个问题。

当成为那种阅读 Strange Loop Canon 的人时,如果你输入论文并询问人才选择问题,我们就会明白这一点。

这个是给你的!是的,就是你。

8个

例如,对于之前的特斯拉问题,在对一堆年度报告进行索引之后,我想用它来进行各种计算,比如计算特定风险指标等。但是 Wolfram Alpha 需要更具体的输入,所以我必须训练 GPT-3 如何制作这些输入。

原文: https://www.strangeloopcanon.com/p/computer-used-to-be-a-job-now-its

本站文章系自动翻译,站长会周期检查,如果有不当内容,请点此留言,非常感谢。
  • Abhinav
  • Abigail Pain
  • Adam Fortuna
  • Alberto Gallego
  • Alex Wlchan
  • Answer.AI
  • Arne Bahlo
  • Ben Carlson
  • Ben Kuhn
  • Bert Hubert
  • Bits about Money
  • Brian Krebs
  • ByteByteGo
  • Chip Huyen
  • Chips and Cheese
  • Christopher Butler
  • Colin Percival
  • Cool Infographics
  • Dan Sinker
  • David Walsh
  • Dmitry Dolzhenko
  • Dustin Curtis
  • Elad Gil
  • Ellie Huxtable
  • Ethan Marcotte
  • Exponential View
  • FAIL Blog
  • Founder Weekly
  • Geoffrey Huntley
  • Geoffrey Litt
  • Greg Mankiw
  • Henrique Dias
  • Hypercritical
  • IEEE Spectrum
  • Investment Talk
  • Jaz
  • Jeff Geerling
  • Jonas Hietala
  • Josh Comeau
  • Lenny Rachitsky
  • Liz Danzico
  • Lou Plummer
  • Luke Wroblewski
  • Matt Baer
  • Matt Stoller
  • Matthias Endler
  • Mert Bulan
  • Mostly metrics
  • News Letter
  • NextDraft
  • Non_Interactive
  • Not Boring
  • One Useful Thing
  • Phil Eaton
  • Product Market Fit
  • Readwise
  • ReedyBear
  • Robert Heaton
  • Ruben Schade
  • Sage Economics
  • Sam Altman
  • Sam Rose
  • selfh.st
  • Shtetl-Optimized
  • Simon schreibt
  • Slashdot
  • Small Good Things
  • Taylor Troesh
  • Telegram Blog
  • The Macro Compass
  • The Pomp Letter
  • thesephist
  • Thinking Deep & Wide
  • Tim Kellogg
  • Understanding AI
  • 英文媒体
  • 英文推特
  • 英文独立博客
©2025 搞英语 → 看世界 | Design: Newspaperly WordPress Theme