苹果因取消有争议的CSAM检测工具遭遇12亿美元诉讼
数千名儿童性虐待幸存者已对苹果公司提起诉讼,指控其未能有效检测和报告儿童色情内容(CSAM)。此次集体诉讼源于苹果去年停止一项有争议的CSAM扫描工具,旨在遏制其产品上CSAM的传播。苹果辩称,终止该工具是基于数字权利组织的担忧,认为政府可能利用这一功能进行非
数千名儿童性虐待幸存者已对苹果公司提起诉讼,指控其未能有效检测和报告儿童色情内容(CSAM)。此次集体诉讼源于苹果去年停止一项有争议的CSAM扫描工具,旨在遏制其产品上CSAM的传播。苹果辩称,终止该工具是基于数字权利组织的担忧,认为政府可能利用这一功能进行非
近日,Apple收到一项关于CSAM(儿童性虐待材料)的指控,指控对象是该公司2021年放弃实施的“CSAM监测”功能。受害人表示,Apple默许iCloud存储CSAM相关内容,并对自己造成二次伤害。
苹果公司因未能实施其针对iCloud中儿童性虐待材料(CSAM)检测措施而面临诉讼,诉讼由儿童性虐待受害者发起,要求赔偿超过12亿美元。该诉讼声称,苹果在宣布开发检测工具后未采取任何实际措施,导致有害图像的持续传播,加重了受害者的痛苦。苹果于2021年提出该计
近期,一起针对苹果公司的诉讼案件引起了广泛关注。这起案件涉及苹果在2022年取消的儿童性虐待材料(CSAM)检测计划,该计划原本旨在通过设备端哈希值系统扫描iCloud中的图片,以检测和阻止CSAM的传播。
苹果公司因在 2022 年取消原定的儿童性虐待材料(CSAM)检测计划而被起诉。一位童年时期曾遭受性虐待的 27 岁女性以化名起诉苹果,指控其违背了保护受害者的承诺。
苹果公司因决定不实施扫描 iCloud 照片以查找儿童性虐待材料 (CSAM) 的系统而遭到起诉。据《纽约时报》报道,该诉讼认为,苹果没有采取更多措施来防止这种材料的传播,而是迫使受害者重温他们的创伤。 这起诉讼描述了苹果在宣布"广泛宣传旨在保护儿童的改进设计
在多年来一直无视签署儿童保护计划的请求之后,备受争议的消息应用程序 Telegram 同意与一个国际公认的机构合作,阻止儿童性虐待材料(CSAM)的传播。互联网观察基金会 (IWF) 用于帮助主要在线服务检测和删除 CSAM,并防止其传播。Telegram 曾
iwf csam telegram画风 2024-12-04 16:55 2