苹果公司对扫描用户图像以寻找虐待儿童内容的计划猛踩刹车
8月早些时候,苹果公开宣布即将发布的iOS和iPadOS系统升级里推出新功能,在本地扫描用户设备是否存有儿童性侵相关的照片,与美国官方的儿童性剥削数据库图片进行比对。在该工具引起用户和隐私团体的关注后,Apple目前暂停了扫描设备是否存在虐待儿童和剥削材料的计划。
上个月宣布的新安全功能包含在iOS 15、iPadOS 15、watchOS 8和macOS Monterey中。第一个是用于监控Messages应用程序的功能,通过客户端机器学习实现扫描并在发送色情图片时发出警报,需要用户输入是否要查看材料。
该公司解释说:“作为额外的预防措施,还可以告诉孩子,为了确保他们的安全,如果他们确实看到了色情图片,他们的父母会收到一条消息。”
第二个是更改影响了Siri和搜索,更新包括为父母和孩子提供额外信息以在他们偶然发现“不安全”情况时警告他们,以及在搜索儿童性虐待材料时“干预”由用户执行。
第三个是CSAM扫描工具,被吹捧为“保护儿童免受使用通信工具招募和剥削他们的掠夺者”的手段。
据iPhone和iPad制造商称,该工具将使用密码学“帮助限制CSAM在线传播”,同时也满足用户隐私。图像不会在云中扫描,而是执行设备上匹配,其中图像将与链接到已知CSAM图像的哈希值进行比较。
“CSAM检测将帮助Apple向执法部门提供有关iCloud照片中CSAM集合的宝贵信息,”该公司表示。“该计划雄心勃勃,保护儿童是一项重要责任。这些努力将随着时间的推移而发展和扩大。”
在描述该工具的技术论文中,Apple表示:
“CSAM检测使Apple能够准确识别和报告将已知CSAM存储在其iCloud照片帐户中的iCloud用户。Apple服务器标记超过阈值数量的与已知CSAM图像哈希数据库相匹配的图像的帐户,以便Apple可以向其提供相关信息。国家失踪和受虐儿童中心(NCMEC)。这个过程是安全的,并且明确旨在保护用户隐私。”
然而,扫描仪在网上引起了争议,引发了隐私倡导者和密码学专家的批评。
约翰霍普金斯大学信息安全研究所副教授和密码学专家马修格林表示,实施密码学来扫描包含特定哈希值的图像可能会成为“向加密消息系统添加监控的关键因素”。
尽管是出于善意而创建的,但这种工具可能会成为不法分子手中的强大武器,例如专制政府和独裁者的手中。
电子前沿基金会也抨击了这些计划,并发起了一份请愿书,向苹果施加压力,要求其回溯。在撰写本文时,该请求有超过27,000个签名。为未来而战,OpenMedia也发起了类似的请愿。
9月3日,Apple表示已停止推出,以便“有更多时间”来分析这些工具及其潜在的未来影响。
“之前我们宣布了一些功能计划,旨在帮助保护儿童免受使用通信工具招募和剥削他们的掠夺者的侵害,并帮助限制儿童性虐待材料的传播,”Apple说。“根据客户、倡导团体、研究人员和其他人的反馈,我们决定在未来几个月内花更多时间收集意见并进行改进,然后再发布这些至关重要的儿童安全功能。”
数字权利组织表示:“苹果一个月前宣布的旨在帮助保护儿童的功能将创建一个很容易重定向到更严格的监视和审查的基础设施。”“这些功能将对iPhone用户的隐私和安全构成巨大威胁,为专制政府提供一种新的大规模监视系统来监视公民。”