Skip to content

搞英语 → 看世界

翻译英文优质信息和名人推特

Menu
  • 首页
  • 作者列表
  • 独立博客
  • 专业媒体
  • 名人推特
  • 邮件列表
  • 关于本站
Menu

分类: Brett Winton

Brett Winton: 我们在轨道上: 当您可以与更热情、更投入、更有趣的 AI 代理聊天时,为什么还要与朋友聊天? https://t.co/TMxi6bkepf 引用来自@rowancheung 的推文: ?突发:Snapchat 加入了人工智能聊天机器人的狂潮。 Snapchat 发布了他们的新 AI 功能“我的 AI”,该功能运行在 OpenAI 最新版本的 GPT 上。 您可以像 ChatGPT 一样与 My AI 交谈,此外您还可以: – 给它起个名字 – 为您的聊天自定义壁纸。 https://t.co/1dmbZUEKMI

Posted on 2023-02-28

原推:We are on trajectory: Why cha…

Brett Winton: @NonFungibleTaco 同意。可能是 85% 非常接近在含糊不清的情况下可达到的最大分数

Posted on 2023-02-28

原推:@NonFungibleTaco Agree. Could…

Brett Winton: Facebook 的 LLaMa 模型在 SIQA 上仅达到 52% 这是我们不希望看到相对近期的零样本饱和的唯一基准 寻找一个人类将保持优势的领域,这个基准就是它 但我怀疑 RLH​​F 有意义地提高了 AI 性能 https://t.co/HxpcAhH8kO 引用来自@wintonARK 的推文: 有人可以在 Social IQa (SIQA) 基准测试中对 chatGPT(或其他人工反馈调整模型)进行基准测试吗? SIQA 有一个明确的(并且可能是模棱两可的)特定于文化的道德覆盖,我猜 RLHF 调整会带来更好的表现 https://t.co/elRyo3MNnp

Posted on 2023-02-28

原推:Facebook’s LLaMa model only h…

Brett Winton: (人类在这个基准上的表现是 85%)

Posted on 2023-02-28

原推:(Human performance on this be…

Brett Winton: 有人可以在 Social IQa (SIQA) 基准测试中对 chatGPT(或其他人工反馈调整模型)进行基准测试吗? SIQA 有一个明确的(并且可能是模棱两可的)特定于文化的道德覆盖,我猜 RLHF 调整会带来更好的表现

Posted on 2023-02-28

原推:Could somebody please benchma…

Brett Winton: 与搜索一样,大多数内容所有者最终会同意他们的数据被 AI 抓取 被答案引擎放大或在信息空间的晦涩小巷中缩小

Posted on 2023-02-27

原推:As with search, most content …

Brett Winton: @TheRealEtch @StabilityAI @evoke_app 同意 https://t.co/1xZzJPsMbx 引用来自@wintonARK 的推文: (当您请求模型权重时,属性许可与 Meta 要求您签署的条款之间存在真正的差异)

Posted on 2023-02-25

原推:@TheRealEtch @StabilityAI @ev…

Brett Winton: 未来比你想象的来得更快 axios.com/2023/02/22/cha…

Posted on 2023-02-25

原推:the future comes faster than …

Brett Winton: @amasad 约 500 万美元用于推出自己的产品。 他们列出了食谱。我确定有人会这样做……

Posted on 2023-02-25

原推:@amasad ~$5m to roll your own…

Brett Winton: 在 AI 中拥有数据优势可能会带来巨大的性能/成本优势。 相对于 8000 亿个 token,1.2 万亿个 token 可以让你在同样的性能输出下,训练成本降低 1/3,推理成本降低一半。 https://t.co/dTvGHzbQjE 引用来自@wintonARK 的推文: Meta 开源了一种基于公开可用数据构建的语言模型,其性能优于 GPT-3(推理成本不到 1/10) ! twitter.com/GuillaumeLampl…

Posted on 2023-02-25

原推:Having a data advantage in AI…

Brett Winton: @value_invest12 削弱微软积累的竞争优势,同时使开源社区能够针对公开可用的数据集优化语言模型架构(他们可以利用这些进步来移植自己的专有数据)

Posted on 2023-02-25

原推:@value_invest12 impair Micros…

Brett Winton: @NaveenGRao @MetaAI 归属的 GNU 许可证与他们要求您在允许模型权重之前签署的附加许可语言之间存在巨大差异(这将模型限制为非商业用途)

Posted on 2023-02-25

原推:@NaveenGRao @MetaAI Big discr…

Brett Winton: 非常有趣的是,即使是 7b 参数模型在添加更多令牌时仍在改进

Posted on 2023-02-25

原推:Super interesting that even t…

Brett Winton: 对 openAI/MSFT 的明显威胁 这可能会阻止 OpenAI 的语言 API 调用,就像 Stable Diffusion 将开发人员活动从 Dall-E 转移一样

Posted on 2023-02-25

原推:Clear threat to openAI/MSFT T…

Brett Winton: 在此模型之上叠加人工反馈的强化学习可能成为价值链的一个独立部分。 实际上,这个开源模型的打包人工调优变成了它自己的业务。

Posted on 2023-02-25

原推:A reinforcement learning with…

Brett Winton: (当您请求模型权重时,属性许可与 Meta 要求您签署的条款之间存在真正的差异)

Posted on 2023-02-25

原推:(There is a real discrepancy …

Brett Winton: 怀疑您会看到很多活动迁移到此。 所有调用 openAI GPT-3 API 的 AI 初创公司都希望使用这种成本低得多的模型作为基础直接在 AWS 上运行

Posted on 2023-02-25

原推:Suspect you’ll see a lot of a…

Brett Winton: Meta 开源了一种基于公开可用数据构建的语言模型,其性能优于 GPT-3(推理成本不到 1/10) ! https://t.co/70oGIRsXap 引用@GuillaumeLample 的推文: 今天我们发布了LLaMA,4个基础模型,参数从7B到65B不等。 LLaMA-13B 在大多数基准测试中优于 OPT 和 GPT-3 175B。 LLaMA-65B 可与 Chinchilla 70B 和 PaLM 540B 竞争。 所有模型的权重都是公开的,可在 research.facebook.com/publications/l… 1/n https://t.co/DPyJFBfWEq

Posted on 2023-02-25

原推:Meta open sources a language …

Brett Winton: @jschill7 类似地,在互联网出现之前的金融市场中,价格透明度已经很强 但产品价格透明度不佳。要找到最便宜的电视,您必须从一家商店到另一家商店。

Posted on 2023-02-25

原推:@jschill7 analogously price t…

Brett Winton: @gladstein 它本质上需要高能量输出与具有丰富资源(特别是核能以及风能/太阳能)的能量输入技术,以在政治上永远保持不利和/或阻止其效率提高轨迹

Posted on 2023-02-24

原推:@gladstein It essentially req…

文章分页

上一页 1 … 4 5 6 … 67 下一页
本站文章系自动翻译,站长会周期检查,如果有不当内容,请点此留言,非常感谢。
  • Abhinav
  • Abigail Pain
  • Adam Fortuna
  • Alberto Gallego
  • Alex Wlchan
  • Answer.AI
  • Arne Bahlo
  • Ben Carlson
  • Ben Kuhn
  • Bert Hubert
  • Bits about Money
  • Brian Krebs
  • ByteByteGo
  • Chip Huyen
  • Chips and Cheese
  • Christopher Butler
  • Colin Percival
  • Cool Infographics
  • Dan Sinker
  • David Walsh
  • Dmitry Dolzhenko
  • Dustin Curtis
  • Elad Gil
  • Ellie Huxtable
  • Ethan Marcotte
  • Exponential View
  • FAIL Blog
  • Founder Weekly
  • Geoffrey Huntley
  • Geoffrey Litt
  • Greg Mankiw
  • Henrique Dias
  • Hypercritical
  • IEEE Spectrum
  • Investment Talk
  • Jaz
  • Jeff Geerling
  • Jonas Hietala
  • Josh Comeau
  • Lenny Rachitsky
  • Liz Danzico
  • Lou Plummer
  • Luke Wroblewski
  • Matt Baer
  • Matt Stoller
  • Matthias Endler
  • Mert Bulan
  • Mostly metrics
  • News Letter
  • NextDraft
  • Non_Interactive
  • Not Boring
  • One Useful Thing
  • Phil Eaton
  • Product Market Fit
  • Readwise
  • ReedyBear
  • Robert Heaton
  • Rohit Patel
  • Ruben Schade
  • Sage Economics
  • Sam Altman
  • Sam Rose
  • selfh.st
  • Shtetl-Optimized
  • Simon schreibt
  • Slashdot
  • Small Good Things
  • Taylor Troesh
  • Telegram Blog
  • The Macro Compass
  • The Pomp Letter
  • thesephist
  • Thinking Deep & Wide
  • Tim Kellogg
  • Understanding AI
  • 英文媒体
  • 英文推特
  • 英文独立博客
©2025 搞英语 → 看世界 | Design: Newspaperly WordPress Theme