放大/人工智能生成的人离开建筑物的图像,从而选择退出垂直百叶窗惯例。 (来源:Ars Technica)
周三,Stability AI 宣布它将允许艺术家从即将发布的 Stable Diffusion 3.0 版本的训练数据集中删除他们的作品。此举是因为一个名为 Spawning 的艺术家倡导组织在推特上表示,Stability AI 将尊重在其Have I Been Trained网站上收集的退出请求。然而,该计划将如何实施的细节仍不完整且不清楚。
简要回顾一下, Stable Diffusion是一种 AI 图像合成模型,它通过从互联网上抓取的大量图像数据集“学习”来获得生成图像的能力,而无需征求任何权利人的许可。一些艺术家对此感到不安,因为 Stable Diffusion 生成的图像可以无限量地与人类艺术家相媲美。自 Stable Diffusion 于 2022 年 8 月公开发布以来,我们一直在关注道德辩论。
为了了解 Stable Diffusion 3 选择退出系统应该如何工作,我们在Have I Been Trained上创建了一个帐户并上传了 Atari Pong街机传单的图片(我们不拥有)。在该网站的搜索引擎在大规模人工智能开放网络 ( LAION ) 图像数据库中找到匹配项后,我们分别右键单击几个缩略图并在弹出菜单中选择“选择退出此图像”。