Skip to content

搞英语 → 看世界

翻译英文优质信息和名人推特

Menu
  • 首页
  • 作者列表
  • 独立博客
  • 专业媒体
  • 名人推特
  • 邮件列表
  • 关于本站
Menu

人工智能写作助手可能会导致用户产生偏见

Posted on 2023-05-27
AI 伦理或 AI 法律概念。制定人工智能道德规范。合规性、监管、标准、业务政策和责任,以防止机器学习算法中出现意外偏差。

放大(来源:Parradee Kietsirikul)

任何因为自动更正选择错误而不得不返回并在智能手机上重新输入单词的人都有某种使用AI写作的经验。不进行这些更正可能会让 AI 说出我们不希望说的话。但AI写作助手是否也有可能改变我们想说的话?

这正是康奈尔大学信息科学博士生 Maurice Jakesch 想要弄清楚的。他基于 GPT-3 创建了自己的 AI 写作助手,该助手会自动提出填充句子的建议——但有一个问题。使用助手的受试者应该回答“社交媒体对社会有益吗?”这个问题。然而,助手被编程为就如何回答该问题提供有偏见的建议。

协助偏见

尽管没有生命,人工智能仍可能存在偏见。尽管这些程序只能“思考”到人类大脑想出如何编程的程度,但它们的创建者最终可能会在软件中嵌入个人偏见。或者,如果在具有有限或有偏见的表示的数据集上进行训练,最终产品可能会显示偏差。

阅读剩余的 10 个段落|评论

原文: https://arstechnica.com/?p=1942533

本站文章系自动翻译,站长会周期检查,如果有不当内容,请点此留言,非常感谢。
  • Abhinav
  • Abigail Pain
  • Adam Fortuna
  • Alberto Gallego
  • Alex Wlchan
  • Answer.AI
  • Arne Bahlo
  • Ben Carlson
  • Ben Kuhn
  • Bert Hubert
  • Bits about Money
  • Brian Krebs
  • ByteByteGo
  • Chip Huyen
  • Chips and Cheese
  • Christopher Butler
  • Cool Infographics
  • Dan Sinker
  • David Walsh
  • Dmitry Dolzhenko
  • Elad Gil
  • Ellie Huxtable
  • Ethan Marcotte
  • Exponential View
  • FAIL Blog
  • Founder Weekly
  • Geoffrey Huntley
  • Geoffrey Litt
  • Greg Mankiw
  • Henrique Dias
  • Hypercritical
  • IEEE Spectrum
  • Investment Talk
  • Jaz
  • Jeff Geerling
  • Jonas Hietala
  • Josh Comeau
  • Lenny Rachitsky
  • Lou Plummer
  • Luke Wroblewski
  • Matt Stoller
  • Mert Bulan
  • Mostly metrics
  • News Letter
  • NextDraft
  • Non_Interactive
  • Not Boring
  • One Useful Thing
  • Phil Eaton
  • Product Market Fit
  • Readwise
  • ReedyBear
  • Robert Heaton
  • Ruben Schade
  • Sage Economics
  • Sam Altman
  • Sam Rose
  • selfh.st
  • Shtetl-Optimized
  • Simon schreibt
  • Slashdot
  • Small Good Things
  • Taylor Troesh
  • Telegram Blog
  • The Macro Compass
  • The Pomp Letter
  • thesephist
  • Thinking Deep & Wide
  • Tim Kellogg
  • 英文媒体
  • 英文推特
  • 英文独立博客
©2025 搞英语 → 看世界 | Design: Newspaperly WordPress Theme