微软无意中了解到创建种族主义人工智能的风险,但如果你故意将情报指向一个有毒的论坛会发生什么?一个人发现了。正如Motherboard和The Verge所指出的,YouTuber Yannic Kilcher 使用4chan 的政治不正确 (/pol/) 委员会三年的内容训练了一个 AI 语言模型,该委员会因种族主义和其他形式的偏执而臭名昭著。在 10 个机器人中实施了该模型后,Kilcher 将 AI 放到了棋盘上——不出所料,它引发了一波仇恨。在 24 小时内,机器人写了 15,000 篇帖子,其中经常包含种族主义内容或与之互动。 Kilcher 声称,他们代表了当天 /pol/ 上超过 10% 的帖子。
绰号 GPT-4chan(OpenAI 的 GPT-3 之后),该模型不仅学会了拾取 /pol/ 帖子中使用的词,而且学会了 Kilcher 所说的混合了“攻击性、虚无主义、拖钓和深度不信任”的整体语气。视频创作者小心翼翼地避开了 4chan 对代理和 VPN 的防御,甚至使用 VPN 让它看起来像是来自塞舌尔的机器人帖子。
AI 犯了一些错误,例如空白帖子,但足够令人信服,以至于许多用户花了大约两天的时间才意识到有问题。根据 Kilcher 的说法,许多论坛成员只注意到其中一个机器人,并且该模型引起了足够的警惕,以至于在 Kilcher 停用它们几天后,人们互相指责对方是机器人。
YouTuber 在与The Verge的对话中将该实验描述为“恶作剧”,而不是研究。这是一个提醒,训练有素的 AI 与其源材料一样好。相反,这种担忧源于 Kilcher 如何分享他的工作。虽然他避免提供机器人代码,但他与 AI 存储库 Hugging Face 共享了该模型的部分绝育版本。访客可能出于险恶目的重新创建了 AI,而 Hugging Face 决定限制访问以作为预防措施。该项目存在明显的道德问题,基尔彻本人表示他应该在未来专注于“更积极”的工作。
原文: https://www.engadget.com/ai-bot-4chan-hate-machine-162550734.html?src=rss