csam

生成儿童虐待图像的人工智能工具在“世界领先”举措中被定为非法

政府宣布新立法,禁止利用人工智能(AI)创建儿童性虐待材料(CSAM),并对持有AI“恋童癖手册”的个人实施惩罚。这一决定源于关于AI生成儿童虐待图像迅速增加的报告。新法规将使持有、创建或分发旨在生成CSAM的AI工具成为犯罪,最高可判处五年监禁。同时,持有A

csam 儿童虐待 儿童虐待图像 2025-02-02 23:00  7

苹果因取消有争议的CSAM检测工具遭遇12亿美元诉讼

数千名儿童性虐待幸存者已对苹果公司提起诉讼,指控其未能有效检测和报告儿童色情内容(CSAM)。此次集体诉讼源于苹果去年停止一项有争议的CSAM扫描工具,旨在遏制其产品上CSAM的传播。苹果辩称,终止该工具是基于数字权利组织的担忧,认为政府可能利用这一功能进行非

诉讼 csam csam检测 2024-12-10 12:30  10

苹果公司因放弃 iCloud 的 CSAM 检测而被起诉

苹果公司因决定不实施扫描 iCloud 照片以查找儿童性虐待材料 (CSAM) 的系统而遭到起诉。据《纽约时报》报道,该诉讼认为,苹果没有采取更多措施来防止这种材料的传播,而是迫使受害者重温他们的创伤。 这起诉讼描述了苹果在宣布"广泛宣传旨在保护儿童的改进设计

icloud 苹果公司 csam 2024-12-09 02:52  12