奇客 蘋果放棄了掃描手機上兒童色情的 CSAM 計劃
去年八月,蘋果宣布了一項受爭議的決定:它將掃描美國用戶 iPhone 手機上的已知兒童色情照片,利用來自 National Center for Missing and Exploited Children (NCMEC)的 CSAM(Child Sexual Abuse Material)圖像哈希值去匹配用戶手機上的圖像哈希,如果發現至少 30 次匹配成功它將會在審核之后報告給相關機構。在引發廣泛批評和反對之后,蘋果暫停了該計劃。現在它放棄了掃描手機上兒童色情的計劃,改為加強“Communication Safety”功能,允許父母和看護者通過家庭 iCloud 賬號選擇加入保護功能,以確保兒童的通信安全,在兒童試圖發送或接收含有裸體的照片時發出警告,阻止和減少新 CSAM 的產生。
https://www.wired.com/story/apple-photo-scanning-csam-communication-safety-messages/
https://www.wired.com/story/apple-photo-scanning-csam-communication-safety-messages/