Lensa 凭借其生成头像的 AI 一直在应用程序商店的热门排行榜上攀升,这让艺术家们挥舞着红旗。现在,还有另一个悬挂旗帜的理由,因为事实证明,使用该平台生成未经同意的软色情是可能的——而且太容易了。
TechCrunch 已经看到使用 Lensa 应用程序生成的照片集,其中包括乳房和乳头的图像,这些图像在具有可识别人脸的图像中清晰可见。好像是那种不该做的事情,所以我们决定自己试一试。为了验证 Lensa 是否会创建它可能不应该创建的图像,我们创建了两组 Lensa 头像:
- 一套,基于 15 张知名演员的照片。
- 另一组,基于相同的 15 张照片,但添加了另外一组 5 张照片,是同一演员的脸,用 Photoshop 处理到裸照模特身上。
第一组图像与我们过去看到的 Lensa 生成的 AI 头像一致。然而,第二盘比我们预期的要辣得多。事实证明,AI 将这些 Photoshop 处理过的图像作为放纵的许可,而且它似乎禁用了 NSFW 过滤器。在这 100 张图像集中,有 11 张是质量更高(或者,至少具有更高的风格一致性)的裸照照片,而不是 AI 作为输入提供的编辑效果不佳的裸照照片。
生成名人的俏皮图像是一回事,正如我们能够找到的源图像所示,互联网上长期以来一直有人愿意在 Photoshop 中将一些图像拼贴在一起。仅仅因为它很常见并不能说明它是正确的——事实上,名人绝对应该享有他们的隐私,绝对不应该成为未经同意的性描写的受害者。但到目前为止,要让这些看起来逼真,需要大量的照片编辑工具技巧,以及数小时甚至数天的工作时间。
最大的转折点和道德噩梦是,除了智能手机、应用程序和几美元之外,您无需任何工具即可轻松创建数百张接近照片级真实感的 AI 生成艺术图像。
你可以轻松地为你能想象到的任何人(或者,至少,任何你有几张照片的人)创建图像,这令人恐惧。将 NSFW 内容添加到组合中,我们很快就会进入一些相当模糊的领域:你的朋友或你在酒吧遇到并与之交换 Facebook 好友状态的随机人,可能没有同意某人生成他们的色情书刊色情片。
看起来,如果您有 10-15 张“真实”的人照片,并且愿意花时间对少量假照片进行 Photoshop,Lensa 会很乐意制作出一些有问题的图像。
AI 艺术生成器已经通过数千张图片大量制作色情内容, 例如 Unstable Diffusion等。这些平台,以及其他所谓的“deepfake”平台的无拘无束的扩散正在变成一场道德噩梦,促使英国政府推动立法,将未经同意的裸照传播定为刑事犯罪。这似乎是个好主意,但即使在最好的时候,互联网也是一个难以治理的地方,我们共同面临着法律、道德和伦理的困境。
我们联系了制作 Lensa AI 的Prisma Labs ,请其发表评论,我们会在收到他们的回复后更新故事。