儿童安全组织Heat Initiative计划发起一项运动,敦促苹果在儿童性虐待材料扫描和用户举报方面采取行动。该公司在周四发表了一份罕见而详细的回应。
12月份,苹果表示将终止设计一个保护隐私的iCloud照片扫描工具,用于检测平台上的儿童性虐待材料(CSAM)。该项目最初于2021年8月宣布,自从开始就备受争议。苹果最初在2021年9月暂停该项目,以回应数字权利组织和研究人员的担忧,他们认为这样的工具不可避免地会被滥用和利用,从而危及所有iCloud用户的隐私和安全。本周,一个名为Heat Initiative的新的儿童安全组织告诉苹果,他们正在组织一场运动,要求苹果“检测、举报和删除”iCloud中的儿童性虐待材料,并为用户提供更多举报CSAM的工具。
今天,苹果罕见地回应了Heat Initiative,概述了放弃开发iCloud CSAM扫描功能的原因,并转而专注于一套称为通信安全功能的设备上工具和资源。苹果与WIRED分享了公司对Heat Initiative的回应,这不仅提供了苹果转向通信安全的理由,还展示了苹果对创建绕过用户隐私保护(如加密)的机制的更广泛观点。这一立场与加密辩论更广泛相关,特别是在英国等国家考虑通过法律要求科技公司能够访问用户数据以配合执法请求的情况下。
苹果的用户隐私和儿童安全总监Erik Neuenschwander在公司对Heat Initiative的回应中写道:“儿童性虐待材料是令人憎恶的,我们致力于打破使儿童易受其害的胁迫和影响链条。”他补充道,尽管与一系列隐私和安全研究人员、数字权利组织和儿童安全倡导者进行了合作,但公司得出结论,无法继续开发CSAM扫描机制,即使是专门为了保护隐私而构建的机制。
Neuenschwander写道:“扫描每个用户的私人存储的iCloud数据将为数据窃贼寻找和利用提供新的威胁向量。这也会引发潜在的滑坡效应。例如,扫描某一类型的内容会为大规模监视打开大门,并可能导致希望搜索其他加密消息系统的内容类型。”
Heat Initiative由Sarah Gardner领导,她曾是非营利组织Thorn的外部事务副总裁,该组织致力于利用新技术打击在线儿童剥削和性贩卖。2021年,Thorn称赞苹果开发iCloud CSAM扫描功能的计划。Gardner在8月30日星期三给首席执行官Tim Cook的一封电子邮件中写道,Heat Initiative对苹果终止该功能的决定感到“失望”,这封电子邮件也与WIRED分享了。
Gardner在给Cook的邮件中写道,苹果的照片扫描工具“不仅将苹果定位为全球用户隐私的领导者,还承诺从iCloud中清除数百万张儿童性虐待图像和视频。……儿童性虐待是一个难以讨论的问题,这就是为什么它会被沉默和被遗忘。我们在这里确保这种情况不会发生。”
苹果坚持认为,即使是自己出于善意的设计,在实践中也无法得到充分的保护,而对于消息、FaceTime、AirDrop和照片选择器等功能的设备上的裸体检测是更安全的替代方案。苹果还开始为其通信安全功能提供应用程序编程接口(API),以便第三方开发人员可以将其整合到其应用程序中。苹果表示,通信平台Discord正在整合这些功能,并且应用程序开发者普遍热衷于采用这些功能。
Neuenschwander在给Heat Initiative的回应中写道:“我们决定不继续推进几年前关于iCloud照片的混合客户端-服务器方法的CSAM检测提案。我们得出结论,从实际上来说,这是不可行的,因为它最终会危及我们用户的安全和隐私。”
对于Heat Initiative要求苹果为用户创建CSAM举报机制,该公司告诉WIRED,它的重点是将其脆弱或受害用户直接与当地资源和执法机构联系,以协助他们,而不是将苹果定位为处理报告的中间人。该公司表示,为交互式平台(如社交网络)提供这种中间服务可能是有意义的。
保护儿童免受在线性虐待的需求是紧迫的,然而,随着这些关切与更广泛的加密辩论交织在一起,苹果拒绝实施数据扫描的决心将继续受到考验。
阅读Heat Initiative和苹果之间的完整交流,请参见下文。为了保护发件人和收件人的隐私,WIRED已经删除了敏感个人信息:
https://www.wired.com/story/apple-csam-scanning-heat-initiative-letter/