Apple 保留了图像中的裸体检测功能,但在 2022 年放弃了一些 CSAM 保护功能。
一名儿童性虐待受害者正在起诉苹果公司,称苹果公司在 2022 年放弃了之前宣布的扫描存储在儿童性虐待材料。
苹果最初推出了一项计划通过使用主题标签系统扫描设备上上传的图像,保护用户免受儿童性虐待材料 (CSAM) 的侵害。它还会在发送或接收经过算法检测到的裸体照片之前向用户发出警告。
称为“通信安全”的裸体检测功能至今仍然存在。然而,Apple 放弃了 CSAM 检测计划来自隐私专家、儿童安全组织和政府。
一名 27 岁的女性小时候曾遭受亲戚性虐待,她正在使用法院允许的化名起诉苹果公司,因为苹果公司阻止了 CSAM 检测功能。她说,她之前收到了一份执法通知,称她的虐待图像通过该功能激活时在佛蒙特州查获的一台 MacBook 存储在 iCloud 上。
她在诉讼中表示,苹果取消了 iCloud 中的 CSAM 扫描功能,违反了保护像她这样的受害者的承诺。她表示,通过这样做,苹果公司已经允许这些材料得到广泛共享。
因此,苹果正在销售像她这样的“损害一类客户的有缺陷的产品”。
更多受害者加入诉讼
据该女子的一位律师称,该女子对苹果公司提起诉讼,要求改变苹果公司的做法,并可能向多达 2,680 名其他符合资格的受害者提供赔偿。诉讼指出,谷歌和 Meta 的 Facebook 使用的 CSAM 扫描功能捕获的非法内容比苹果的反裸露功能多得多。
根据现行法律,儿童性虐待的受害者可以获得至少 15 万美元的赔偿。如果该女子诉讼中的所有潜在原告都获得赔偿,那么苹果公司被判承担责任的话,其损失可能会超过 12 亿美元。
在相关案件中,一名 9 岁 CSAM 受害者的律师在北卡罗来纳州法院起诉苹果公司。据报道,在这种情况下,女孩说陌生人通过 iCloud 链接向她发送了 CSAM 视频,并“鼓励她拍摄和上传”类似的视频。纽约时报, 哪个报道了这两起案件。
苹果提出了一项驳回北卡罗来纳州案件的动议,并指出联邦法规第 230 条保护其免于对其用户上传到 iCloud 的材料承担责任。它还表示,由于 iCloud 不是一个独立的产品,因此它不会受到产品责任索赔的影响。
法院裁决软化第 230 条保护
然而,最近的法院裁决可能不利于苹果公司逃避责任的主张。美国第九巡回上诉法院已决定此类抗辩仅适用于主动内容审核,而不是作为可能承担责任的全面保护。
苹果发言人 Fred Sainz 在回应新诉讼时表示,苹果认为“儿童性虐待内容令人憎恶,我们致力于打击掠夺者将儿童置于危险之中的方式。”
塞恩斯补充说,“我们正在紧急、积极地创新,以打击这些犯罪行为,同时不损害所有用户的安全和隐私。”
他指出裸体检测功能的扩展,以及用户向 Apple 报告有害材料的能力。
诉讼背后的女士和她的律师玛格丽特·马比(Margaret Mabie)并不认为苹果做得足够。在准备此案的过程中,玛比仔细研究了执法报告和其他文件,以查找与她的客户图像和苹果产品相关的案件。
Mabie 最终建立了一个包含 80 多个共享图像示例的列表。分享这些图像的人之一是一名湾区男子,他因在 iCloud 中存储了 2000 多张非法图像和视频而被捕。时代著名的。