苹果因未能在iCloud中实施检测儿童性虐待材料的工具而被起诉

B站影视 2024-12-09 19:00 2

摘要:苹果公司因未能实施其针对iCloud中儿童性虐待材料(CSAM)检测措施而面临诉讼,诉讼由儿童性虐待受害者发起,要求赔偿超过12亿美元。该诉讼声称,苹果在宣布开发检测工具后未采取任何实际措施,导致有害图像的持续传播,加重了受害者的痛苦。苹果于2021年提出该计

#头条精品计划#

苹果公司因未能实施其针对iCloud中儿童性虐待材料(CSAM)检测措施而面临诉讼,诉讼由儿童性虐待受害者发起,要求赔偿超过12亿美元。该诉讼声称,苹果在宣布开发检测工具后未采取任何实际措施,导致有害图像的持续传播,加重了受害者的痛苦。苹果于2021年提出该计划,但因隐私问题而最终放弃。对此,苹果发言人重申公司在打击儿童性虐待材料方面的承诺,强调正在创新以保护儿童,同时维护用户隐私。他提到的“沟通安全”功能旨在警告儿童接收或发送裸露内容的情况。此次诉讼还紧随英国国家防止虐待儿童协会对苹果低报CSAM事件的指控。

苹果公司目前正面临由儿童性虐待受害者发起的诉讼,指控该公司未能实施其提出的针对iCloud中儿童性虐待材料(CSAM)进行扫描的措施。据《纽约时报》报道,苹果在2021年宣布其计划开发一款工具,以检测CSAM,该工具将识别并标记描绘此类虐待的图像,并随后通知美国国家失踪和被剥削儿童中心。然而,在对这一技术可能带来的隐私影响产生重大反对声浪后,苹果最终决定放弃这一倡议。

该诉讼于周六在北加州提起,寻求超过12亿美元(约合84亿人民币)的赔偿,涉及2680名受害者。诉状声称,在苹果公开展示其拟议的儿童安全工具后,公司“未能实施这些设计或采取任何措施来检测和限制”其设备上的CSAM。这一不作为据称导致有害图像的持续传播,进一步加重了受害者的痛苦。

针对这起诉讼,苹果发言人弗雷德·赛因兹向Engadget发表声明,强调公司在打击儿童性虐待材料方面的承诺。他表示:“儿童性虐待材料令人发指,我们致力于打击那些让儿童处于危险中的掠夺者。我们正在紧急而积极地创新,以打击这些罪行,而不影响所有用户的安全和隐私。”赛因兹还提到“沟通安全”等功能,该功能在儿童接收或尝试发送包含裸露内容的内容时会发出警报,作为苹果持续努力防止CSAM传播的一部分。此次诉讼紧随英国国家防止虐待儿童协会(NSPCC)最近对苹果低报CSAM事件的指控。

更新,2024年12月8日,北京时间下午6:55:本报道已更新,包含苹果对Engadget的声明。

来源:老孙科技前沿一点号

相关推荐