原推:Team turned off 1 engine just…
Elon Musk: 埃隆·马斯克转发推文: Booster 7 twitter.com/i/broadcasts/1 上的 33 个 Raptor 引擎的首次静态点火尝试…
原推: Elon Musk retweeted: First s…
Elon Musk: 总有一天,星际飞船会带我们去火星 https://t.co/oMrnBIiBjY 引用来自@SpaceX 的推文: Booster 7 静态点火测试的无人机视图 https://t.co/KN4sk1nohf
原推:One day, Starship will take u…
Elon Musk: 埃隆·马斯克转发推文: 33 Raptor 发动机静态点火尝试即将到来
原推: Elon Musk retweeted: 33 Rapt…
Elon Musk: @CatherinScience 我必须承认天生乐观(否则不会存在 SpaceX 和 Tesla),但我认为 5 年是可能的,10 年的可能性很大
原推:@CatherinScience I must admit…
Mark Gurman: @wojespn湖人队
原推:@wojespn Lakers https://twitt…
Brett Winton: @NaveenGRao 我明白了(我想) 但我具体谈论的是偏好模型的大小(人择的词汇——其他人使用“奖励模型”)。 Anthropic 在扩大参数数量(至 50b)时获得了更好的结果 无法通过相对少量的 HF 数据进行平方。
原推:@NaveenGRao I get that (I thi…
Brett Winton: 关于人类反馈强化学习的问题 RL 偏好模型数据集(50k 数据点)与模型大小(50b 参数)的比率 与底层语言模型非常不同(1,500b 标记到 70b 参数) 为什么? 我是在比较苹果和橙子吗?
原推:question on reinforcement lea…
Brett Winton: @_BruceX_(RLHF 我指的是奖励/偏好模型)
原推:@_BruceX_ (by the RLHF I mean…
Brett Winton: @_BruceX_ 那为什么RLHF模型需要那么多参数呢? 在参数数量和用于训练模型的数据量之间的权衡方面,我有什么误解吗?从某种意义上说,这个比率不应该是可以概括的吗?
原推:@_BruceX_ Then why does the R…
Brett Winton: 这只是一个经济问题吗? (收集人类反馈是昂贵的) 这不会导致偏好模型过度拟合吗?
原推:Is it just a matter of econom…
Brett Winton: @NaveenGRao 试图弄清楚/了解公司将如何优化底层语言模型和强化学习调整之间的预算……
原推:@NaveenGRao Trying to figure …
Valve 等了 15 个月才修补高严重性漏洞。黑客突袭
(信用:阀门) 研究人员发现了四种游戏模式,可以成功利用一个严重…
你可能错了事情是如何改变的
去年我把这篇文章写成一篇科学期刊的论文,但要发表它需要让它变得无…
今天的眼睛糖果:Maxfield Parrish 景观
Autumn Brook ,Maxfield Parrish,船…
Daily Crunch:Atlassian 在公开测试版中提供 Jira Product Discovery
要在太平洋标准时间每天下午 3 点向您的收件箱发送 TechCr…
报道称,推特从之前被禁的账户中赚取了数百万美元
Twitter 仅从少数一些最臭名昭著的用户那里赚取了数百万美元…
一些最好的创始人是“难相处”的人
在参考检查两极分化的企业家时要寻找什么 在对初创公司 CEO 进…
一天一页的魔力
1979 年,一天一页的日历诞生了。它基本上是一本书,但用户每天…