摘要:近日,Apple收到一项关于CSAM(儿童性虐待材料)的指控,指控对象是该公司2021年放弃实施的“CSAM监测”功能。受害人表示,Apple默许iCloud存储CSAM相关内容,并对自己造成二次伤害。
近日,Apple收到一项关于CSAM(儿童性虐待材料)的指控,指控对象是该公司2021年放弃实施的“CSAM监测”功能。受害人表示,Apple默许iCloud存储CSAM相关内容,并对自己造成二次伤害。
此次案件的受害者是一名27岁的女性,她在儿童时期受到亲戚猥亵,并被记录下来,相关内容一直在网上分享,其中一个重要载体就是iCloud。她指控道,Apple并没有识别并删除这些照片或视频,以至于她现在还能看到那些内容,并持续对她造成伤害。
诉讼称,“如果Apple实施其2021年的‘CSAM监测’技术,原告童年性虐待的图像和视频,将被识别并删除。”
这已经不是第一起相关起诉,今年8月,一名9岁女孩和她的监护人也起诉了Apple,理由是该公司未能解决CSAM在iCloud的传播问题。根据现有数据统计,可能有2680名潜在受害者将对Apple提出赔偿要求。
时间回到2021年,Apple当年宣布CSAM监测功能后,因为隐私隐患被迫叫停。该功能在当年引起巨大舆论压力,因为CSAM监测相当于植入一个官方“后门”,一旦被滥用将有巨大隐私泄漏风险,如今该风险又将卷土重来。
粗略统计,Apple全球用户多达20亿,存储在iCloud的图片及视频不计其数,它们现在都是加密状态存储。在CSAM监测功能加入后,相当于在所有加密内容中放入了一个“后门”,只要有需要,就可以随时解密这些数据。
现在的情况是,Apple已经明确表示,在iPhone、Mac或iPad中存储的内容,即使是Apple官方,在任何情况下都无法访问这些数据。也许正是由于端到端加密的特性,连Apple官方也无法查看并处理这些CSAM相关内容。
在回应CSAM相关起诉时,Apple发言人说道:“CSAM相关内容令人憎恶,我们致力于打击这类犯罪行为。我们正在加紧技术创新,积极打击犯罪行为,同时又不损害所有用户的安全和隐私。”最新消息,Apple拟定的初始计划是,在CSAM相关内容发送时发出警告,在传播开始前进行遏制,不过这个方案可能随时会改变。
无论如何,这个诉讼都将关系全体Apple用户,大家都应认真对待,因为加密存储的任何一环被打破,这个隐私壁垒就将彻底崩溃。
来源:热点科技