作为其打击“网络闪现”的更大承诺的一部分,约会应用程序 Bumble 正在开源其人工智能工具,该工具可检测未经请求的淫秽图像。 Private Detector 于 2019 年首次亮相(让我们花点时间了解一下这个名字),它模糊了通过 Bumble 应用程序发送的裸体,让接收端的用户可以选择是否打开图像。
“尽管幸运的是,在我们的应用程序上发送淫秽图像的用户数量微不足道——仅为 0.1%——但我们的规模使我们能够收集行业最佳的淫秽和非淫秽图像数据集,专为实现在任务中表现最好,”该公司在新闻稿中写道。
现已在GitHub 上提供,该 AI 的改进版本可用于商业用途、分发和修改。虽然开发检测裸体图像的模型并不完全是尖端技术,但小公司可能没有时间自行开发。因此,其他约会应用程序(或任何人们可能发送鸡巴照片的产品,AKA 整个互联网?)可以切实地将这项技术集成到他们自己的产品中,帮助保护用户免受不受欢迎的淫秽内容的影响。
自发布 Private Detector 以来,Bumble 还与美国立法者合作,强制执行发送未经请求的裸体的法律后果。
“有必要在 Bumble 的产品生态系统之外解决这个问题,并就如何解决未经请求的淫秽照片(也称为网络闪现)问题进行更广泛的讨论,以使互联网成为对每个人来说更安全、更友善的地方,”Bumble 补充道。
当 Bumble 首次 推出这种人工智能时,该公司声称它的准确率达到了 98%。
Bumble 开源了它的人工智能,可以检测Amanda Silberling最初发表在TechCrunch上的未经请求的裸体
原文: https://techcrunch.com/2022/10/24/bumble-open-sourced-its-ai-that-detects-unsolicited-nudes/