2024 年 5 月, All Tech Is Human的Anne Collier联系我,请我为端到端加密的新“报告”做出贡献。正如LinkedIn 上宣布的那样,该报告(经过大量行政变动后)现已发布于https ://alltechis human.org/all-tech-is- human-blog/balancing-privacy-and-child-safety-in-encrypted-environments 。
我的看法是, ATIH 在代表性方面本可以做得更糟;有一些方面和部分我仍然强烈不同意,但隐私和安全观点的代表性比我在一段时间内从(尤其是: 与荆棘相邻的)民间社会经历的要平衡得多,而且是在从可怕的事件开始之后下面列出的问题的基线——对于任何试图向政策制定者解释“加密与安全”的人来说,这些问题应该作为警告和入门。
目前还不清楚我的贡献是否会全部公开——这份报告的管理方式与之前的一些报告不同,安妮(我尊重她,我观察到她在整个调查问卷过程中表现得相当公平)被请来运行它(尽管随后它易手)——但我同意参与,但有一项谅解,即在报告发布后我将在博客文章中发表我的回应。因此这篇文章。
随后,我很高兴受邀对草稿发表评论并提供我能提供的反馈。 ATIH 团队冷静、灵活、不带评判、中立地应对了这一连串挑战,虽然这份文件最初显然是为了资助者的利益而设计的,但这是一次很好的体验。
回复:问卷,我回复安妮:
“这些问题存在很大的偏见……[虐待后 CSAM 检测]如何保护儿童? [你会]等待他们成为受害者,然后为找到他们并帮助他们康复而欢呼吗? …… [如果我们正在讨论]谋杀,那么解决方案就是停下来搜查每个人的车里是否有尸体,然后假装这是一个解决方案?”
——安妮邀请我消除这些问题的偏见。我做到了。因此:以下是我对原始调查问卷的答复,由激发他们的问题构成。
减轻危害的好处和风险
从您的角度来看,数字社交空间中端到端加密的好处和风险是什么? E2EE 对于 18 岁以下的用户来说意味着更大的利益还是更大的风险?
让我们从头开始思考这个问题:E2EE 的功能纯粹是限制对通信数据(消息、电子邮件等)的访问,以排除除了通信中的实际参与者之外的任何人的访问(在给定消息的时间和对象)实际上是撰写并发送的。就是这样。这就是全部事情。这不是什么宏大而复杂的“技术兄弟”阴谋。有关这方面的更多信息,请参阅底漆:
https://alecmuffett.com/alecm/e2e-primer/e2e-primer-print.html
此特性对于所有形式的通信来说都是普遍的好处,因为它降低了通过帐户盗窃、平台黑客攻击、恶意平台员工窥探,甚至(E2EE 包括设备注册)通过设备盗窃、抢劫而泄露数据的风险。和扒窃。
鉴于 18 岁以下的用户将比我们其他人活得更久,他们将比我们在余生中看到更多的好处——更少的“我在 2004 年愚蠢地发布到我的 Facebook 上的令人尴尬的照片”类型的场景,更少信用卡详细信息被盗, “我的虐待伴侣正在监视我”的关系减少,等等……
另外:考虑到目前政治的性质,例如政府在撤销与身体自主和代理相关的各种权利的悬崖上摇摇欲坠,在我的具体情况下,我希望我蹒跚学步的女儿长大后有权利和能力完全逃避任何形式的在线监控,甚至/尤其是国家“为了她自己的利益”而强加的监控。奥威尔写过这类事情的风险。
目前 E2EE 环境中的安全性如何?
不断发展。没有别的词了。所有环境、所有平台都在不断发展,无论是 E2EE 还是其他。任何回答“我们做得还不够”或“我们需要走得更远”的人都应该有义务解释他们正在采用哪些指标。如果他们认为“即使是一件网络虐待案件也太多了”,那么他们也应该描述他们减轻贫困、饥饿和家庭暴力的方法,这些对儿童的伤害要大得多。或者,如果他们愿意,他们可以解释为什么社会愿意允许继续使用机动车辆,而每年都有成千上万的儿童在汽车和道路上丧生或严重受伤。
您是否知道任何与 E2EE 配合使用的现有技术可以防止或减缓儿童性虐待材料的传播?如果有,请描述。
E2EE的目标是防止任何一项内容与任何其他内容区分开来,因此实现这一目标的唯一方法是减慢甚至危及所有内容的传播;然而,这个问题的本质反映了普遍存在的“以内容为中心”的方法,这个调查问卷就是例证。
因此,有必要询问撰写或回复此调查问卷的人:您是否想在虐待发生后跟踪无限复制、无限转发的内容,或者您是否想通过从字面上防止虐待来保护儿童?首先发生的事?
这个问题甚至直指因重新共享现有的 CSAM 和 NCII 而造成的再次受害的具体危害:我们最好首先集中精力防止人们成为受害者,并解决社会和文化的纵容问题实现现有内容的重新共享,以解决这些问题的根本原因。
利益相关者的角色
互联网公司在减少或最小化其提供的 E2EE 环境中的儿童风险方面发挥什么作用?请尽可能具体地描述它们如何在保护隐私的同时帮助减轻儿童伤害。
所以现在我们谈论的是“最小化儿童风险”,而上面我们谈论的是“材料[即内容]的传播” ——两者并不相同,而且每个“目标”都有单独的战术和战略方法,需要待实施。
如果您是有意向未成年人提供用户服务的平台提供商,您就可以为这些未成年人提供保护服务,作为您产品(“家庭友好!”)价值主张的一部分。它甚至可能有法律义务。这通常是公平的,并且可以扩展到平台产品的各个方面(例如群组、产品页面、广告等……)
任何法律义务的自由边界都是双重的:
- 国家阻止/冻结向所有用户提供某项功能或特性(例如“端到端隐私”或“匿名”)
- 国家有义务/强制向所有用户放置某项功能或特性(例如“内容扫描和过滤”或“政府 ID 要求”)
因此,如果您想在保护隐私的同时降低所有环境中的儿童风险,您应该鼓励平台采用隐私友好且(重要!)极低风险的用户推动更安全的行为形式,同时利用经过验证的用户报告和多平台元数据共享以识别滥用者群体。
这会是什么样子?看起来各种平台上现有的努力(例如)识别和教育正在拍摄裸体自拍照并打算在平台上分享的用户,并弹出诸如“你确定自己在做什么吗?”之类的弹出警报。 ”和“你真的信任这个人吗?”和“与您交谈的人正在使用最近创建的帐户,并且已多次更改姓名,这很可疑” 。重要的是:所有这些都将在客户端设备上完成,而不是报告给“当局”,因为设备必须按照用户的利益行事,而不是填写已经溢出的 NCMEC 报告审查管道。
它还可以在任何滥用行为发生之前起到预防作用,并且由于这是“较低风险”的参与,无需向当局报告,因此可以提高敏感性(因此:误报的风险),而不会产生重大社会后果。目标应该是在用户在互联网上行驶时为其提供安全气囊和安全带,而不是让警惕的警察跟踪他们——尤其是因为后者(即普遍的监控和监视)将改变用户的行为并将他们推向使用保护性较差、安全性较低的平台空间。
顺便说一句:我们应该观察从乐高在线空间等以儿童为中心的平台提取适合家庭、以儿童为中心的设计课程的技术挑战(限制?),以便将这些课程应用到电子邮件或电子邮件等通用平台上。协作文档编辑。这些工具需要如何改变才能变得更加以儿童为中心?那么他们会保持健康以达到正常目的吗?或者我们应该通过年龄验证简单地禁止儿童使用它们,这样他们在最终加入劳动力市场之前就不会体验它们(除非在监督下)?
企业在政策方面可以做什么?请尽可能具体。
公司应尽最大可能实施 E2EE,以保护数据免遭第三方或第四方访问,如上面引用的 E2EE 入门手册中所定义。
公司还应该决定他们是否有业务要求充分了解其用户,以便能够区分用户群中的未成年人和成年人;如果是这样,那么公司应该选择是否相应地调整他们的产品。
这两种选择(尽可能少地了解,以及仅出于商业目的而根据已知信息采取行动)反映了 GDPR 等隐私法中规定的“数据最小化”的监管义务。某些形式的安全行动主义要求收集和扩散更多数据,这违背了这些原则。
企业在技术措施方面可以采取哪些措施?请解决内容审核、产品功能、数据、报告流程等工具。
上述“最小化儿童风险”的答案涉及到这个问题;所提到的“元数据共享”已经由 Lantern 等项目实施:
https://www.technologycoalition.org/newsroom/announcing-lantern
政府或监管机构可以采取哪些措施来支持 E2EE 环境中的隐私和儿童安全?请尽可能具体。
他们可以停止推行这样一种观点,即在(任何类型的)网络环境中最大程度地减少儿童风险的最佳途径是监视所有用户是否有可能传播虐待后内容,而不是鼓励采用低风险的防止虐待教育、低风险的滥用威慑、滥用举报流程,这些都融入了 Lantern 之类的活动,以及对文化变革的追求。
旁白: “平台应该被迫解决这个问题” / “……应该有保护[儿童]的注意义务”的简单要求并不是真正的解决方案,相反,它们只是鞭打,而没有对如何解决这个问题提供实际思考可能会得到解决,更不用说以任何特定方式实际尝试这样做的后果了。
谈到执法部门的角色:他们需要什么以及可以做什么来减少 CSAM 问题并帮助救援受害者?
根据全球儿童安全保护伞组织 INHOPE 的说法,执法部门已经不堪重负,必须开发工具来解决 CSAM 报告误报、噪音和其他“规模”挑战,这些挑战限制了他们保护立即面临风险的儿童的能力:
https://www.inhope.org/EN/articles/combatting-cybercrime-using-aviator
因此,执法部门最好尝试从滥用后检测转向减少伤害、预防伤害的方法。
让问题各方共同努力会有帮助吗? (是/否/其他)
可能不会,但我相信他们会尝试。
如果您对上一个问题的回答是肯定的,那会是什么样子?需要什么条件才能实现这一点?
我怀疑这看起来像是一场争吵,直到所有利益相关者的目标达成一致。这将需要政治立场的多次重大转变。
如果您对上一个问题的回答是否定的,您能告诉我们您为什么这么说吗?
有许多难题需要解决,包括:
- 儿童安全组织的文化,通过引用越来越多的“数百万份报告”来验证其持续存在——其中只有一小部分(参考:INHOPE、GCHQ)涉及儿童在当前或未来实际上面临剥削的风险,一般来说,所有这些努力都是为了虐待后的反应。
- 传输 CSAM 或 NCII 或人工智能生成的假 CSAM 的法定犯罪行为的复杂问题,通过利益相关者对防止新滥用与检测(重新)滥用滥用的平衡和相对重要性的看法进行过滤 – 无论是旧的,新的,或者假的。
因此,从个人观察来看,我怀疑会有很多大声疾呼和阻挠。
2021 年,苹果和其他公司进行了一项重要的实验,当时苹果宣布通过仅扫描 iCloud 帐户中的 CSAM 来扩大对未成年人的保护,后来暂停了该举措。如果苹果没有暂停它,它的保护是否会成为苹果用户解决云中 CSAM 问题的重大进步?请解释一下。
这个问题与措辞无关; Apple iCloud 扫描仪旨在帮助执法部门以高风险和秘密的方式追查虐待后的材料。它的设计初衷并不是为了服务用户或使用户受益。因此:它支持国家监视,并因此受到适当的识别和批评。据我所知,该计划并不是“暂停”,而是实际上停止、撤销、退回或终止。你不相信吗?如果是这样,请解释为什么?
结论性思考
您觉得我们在这里遗漏了任何重要问题吗?如果是这样,我们(所有人)应该问什么?您认为答案是什么或让我们更接近答案?
将此问题和下一个问题放在一起,本调查问卷中缺少的问题如下:
为什么在线儿童安全主要(甚至是唯一)被认为最合适的方式是通过普遍的监视来实现已知的虐待后图像,而不是通过用户教育、虐待预防、潜在的减少伤害的集体努力来实现。以及实际的滥用行为报告,以及针对通过此类元数据提供的情报采取的集体行动?
以及:我们如何从前者转向后者?
正如另一位在互联网安全领域工作的人对我说的: “……在某些地区,CSAM 的生产被视为摆脱系统性贫困的少数可用途径之一。”在这种情况下,不解决贫困问题似乎很奇怪……但这种想法迫使我们提出一个最普遍的问题:为什么我们如此关注虐待后内容的问题,而不是试图解决所有社会问题导致、促成或促进直接或间接网络虐待的挑战和文化习俗?
今天的青少年安全对话还遗漏了什么? (选修的)
见上文。