Skip to content

搞英语 → 看世界

翻译英文优质信息和名人推特

Menu
  • 首页
  • 作者列表
  • 独立博客
  • 专业媒体
  • 名人推特
  • 邮件列表
  • 关于本站
Menu

什么是生成式人工智能?

Posted on 2025-07-22
open?token=eyJtIjoiPDIwMjUwNzIyMDAxMjIxL

在我们深入探讨之前,先来复习一下 ChatGPT 和 Stable Diffusion 等模型的底层工作原理。
͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏

转发了这封邮件? 点击此处订阅以获取更多信息
https%3A%2F%2Fbucketeer-e05bbc84-baa3-43

这是一篇仅供付费订阅者阅读的文章预览。如果感兴趣,请注册并阅读更多内容😉


什么是生成式人工智能?

在我们深入探讨之前,先来复习一下 ChatGPT 和 Stable Diffusion 等模型的底层工作原理。

贾斯汀和大卫
7月22日
∙
预览
https%3A%2F%2Fbucketeer-e05bbc84-baa3-43 https%3A%2F%2Fsubstack-post-media.s3.ama
https%3A%2F%2Fsubstack.com%2Ficon%2FLuci
https%3A%2F%2Fsubstack.com%2Ficon%2FLuci
https%3A%2F%2Fsubstack.com%2Ficon%2FLuci
https%3A%2F%2Fsubstack.com%2Ficon%2FNote

在应用程序中阅读https%3A%2F%2Fsubstack.com%2Ficon%2FLuci

如果你正在读这篇文章,你可能已经对机器学习的常规概念有了相当的了解。但是,如何从一个可以处理一些简单任务(例如预测股票价格或识别玉米地里的虫子)的模型,转变为一个能够从零开始创建单词的模型呢?或者换句话说……生成式人工智能模型究竟在做什么?

首先,我将大致介绍GenAI 的工作原理以及模型如何创建事物。然后,我将分别深入介绍两种最流行的 GenAI 类型——图像生成和文本生成。

生成式人工智能模型在做什么?

老式的机器学习全是关于预测的。你会在数据集上训练一个模型,然后用它来预测新数据加入时会发生什么,比如股市新的一天,或者田里玉米的新图像。

https%3A%2F%2Fsubstack-post-media.s3.ama

生成式人工智能也与预测有关。但它并非预测某个范围非常具体的事物(例如数字或“是/否”答案),而是预测整个句子、段落、图像、视频甚至音频。它经过训练,可以根据你的提示生成大量新数据。

因此,尽管技术和风格在过去 5 年中发生了很大变化,但 GenAI 和传统 ML 之间的差距并不大;它们都在学习数据中的模式,然后使用这些模式来做一些事情。

GenAI 模型的类型

GenAI 模型有很多不同的类型,其中一些已经存在一段时间了。例如,生成对抗网络 (GAN),其中一个模型创建一些东西,另一个姊妹模型对其进行评判。还有变分自编码器 (VAE),它使用概率分布。此外,还有循环神经网络 (RNN),这是一种特殊的神经网络,可以预测单词序列。此外,还有更多缩写更长的模型。

但过去几年的大部分进展都来自两种特定类型的 GenAI 模型:

  1. Transformer——主要用于文本生成

  2. 扩散模型——主要用于图像和视频生成

就像任何软件系统一样,每个系统都有其擅长的和不擅长的方面。让我们来了解一下每种模型的类型、它们的起源以及工作原理。实际上,当今许多最先进的模型都结合使用了这两种方法……

用户头像

在 Substack 应用中继续免费阅读此文章

领取我的免费帖子
或者升级您的订阅。升级至付费版
https%3A%2F%2Fsubstack.com%2Ficon%2FLuci喜欢
https%3A%2F%2Fsubstack.com%2Ficon%2FLuci评论
https%3A%2F%2Fsubstack.com%2Ficon%2FNote重新堆叠

© 2025贾斯汀
加州旧金山市市场街 548 号 PMB 72296 邮编 94104
取消订阅

获取应用程序 动笔

open?token=eyJtIjoiPDIwMjUwNzIyMDAxMjIxLeJw8kNHOpCAMRp9muFsDRVAveBZTaZ0hq2Cg7MS3

原文: https://www.inoreader.com/article/3a9c6e77158a2b59

本站文章系自动翻译,站长会周期检查,如果有不当内容,请点此留言,非常感谢。
  • Abhinav
  • Abigail Pain
  • Adam Fortuna
  • Alberto Gallego
  • Alex Wlchan
  • Answer.AI
  • Arne Bahlo
  • Ben Carlson
  • Ben Kuhn
  • Bert Hubert
  • Bits about Money
  • Brian Krebs
  • ByteByteGo
  • Chip Huyen
  • Chips and Cheese
  • Christopher Butler
  • Colin Percival
  • Cool Infographics
  • Dan Sinker
  • David Walsh
  • Dmitry Dolzhenko
  • Dustin Curtis
  • eighty twenty
  • Elad Gil
  • Ellie Huxtable
  • Ethan Dalool
  • Ethan Marcotte
  • Exponential View
  • FAIL Blog
  • Founder Weekly
  • Geoffrey Huntley
  • Geoffrey Litt
  • Greg Mankiw
  • Henrique Dias
  • Hypercritical
  • IEEE Spectrum
  • Investment Talk
  • Jaz
  • Jeff Geerling
  • Jonas Hietala
  • Josh Comeau
  • Lenny Rachitsky
  • Li Haoyi
  • Liz Danzico
  • Lou Plummer
  • Luke Wroblewski
  • Matt Baer
  • Matt Stoller
  • Matthias Endler
  • Mert Bulan
  • Mind Matters
  • Mostly metrics
  • Naval Ravikant
  • News Letter
  • NextDraft
  • Non_Interactive
  • Not Boring
  • One Useful Thing
  • Phil Eaton
  • Product Market Fit
  • Readwise
  • ReedyBear
  • Robert Heaton
  • Rohit Patel
  • Ruben Schade
  • Sage Economics
  • Sam Altman
  • Sam Rose
  • selfh.st
  • Shtetl-Optimized
  • Simon schreibt
  • Slashdot
  • Small Good Things
  • Steph Ango
  • Steve Blank
  • Taylor Troesh
  • Telegram Blog
  • The Macro Compass
  • The Pomp Letter
  • thesephist
  • Thinking Deep & Wide
  • Tim Kellogg
  • Understanding AI
  • Wes Kao
  • 英文媒体
  • 英文推特
  • 英文独立博客
©2025 搞英语 → 看世界 | Design: Newspaperly WordPress Theme