未经请求的裸照在社交媒体上是一个大问题,但据报道,Instagram 正在开发一种可以提供帮助的工具。研究人员亚历山德罗·帕卢齐(Alessandro Paluzzi)在推特上发布的早期截图表明,“裸露保护”技术“涵盖了聊天中可能包含裸露的照片”,让用户可以选择查看或不查看。 Instagram 父级 Meta 向The Verge证实它正在开发中。
Meta 表示,其目的是帮助保护人们免受裸照或其他未经请求的信息的影响。作为进一步的保护,该公司表示无法查看图像本身,也无法与第三方共享。一位发言人说:“我们正在与专家密切合作,以确保这些新功能保护人们的隐私,同时让他们控制收到的信息。”它计划在任何测试之前的未来几周内分享更多细节。
#Instagram正在致力于为聊天提供裸露保护 ?
ℹ️ 您设备上的技术涵盖聊天中可能包含裸露的照片。 Instagram 无法访问照片。 pic.twitter.com/iA4wO89DFd
— 亚历山德罗·帕卢齐 (@alex193a) 2022 年 9 月 19 日
Meta补充说,新功能类似于去年推出的“隐藏词”工具。该功能允许用户根据关键词过滤 DM 请求中的滥用信息。如果请求包含您选择的任何过滤词,它会自动放置在一个隐藏文件夹中,您可以选择永远不要打开它——尽管它没有被完全删除。
该功能很受欢迎,但姗姗来迟,因为社交媒体公司在很大程度上忽略了不受欢迎的裸照,现在是一个普遍存在的问题。 伦敦大学学院在 2020 年进行的一项研究发现,在 150 名 12-18 岁的年轻人中,75.8% 的人收到了未经请求的裸照。
发送不需要的裸照,也称为“网络闪现”,已成为包括加利福尼亚和英国在内的多个司法管辖区的目标。在英国,如果在线安全法案获得议会通过,它可能会成为刑事犯罪。加利福尼亚并没有走那么远,但上个月,州立法机构和参议院一致投票允许用户起诉未经请求的裸照和其他色情图片材料。
原文: https://www.engadget.com/instagram-protect-from-unsolicited-nude-images-081812784.html?src=rss