IT之家 9 月 1 日消息,蘋(píng)果公司在遭到媒體、非營(yíng)利機構和消費者的諸多反對之后,于去年 12 月宣布,iCloud 云服務(wù)停止兒童性虐待材料(CSAM)檢測計劃。
這項檢測計劃于 2021 年 8 月開(kāi)始測試,主要會(huì )檢測存儲在 iCloud 的 CSAM 圖像資料,但自推出以來(lái)備受爭議。
Illustration: Jacqui VanLiew
蘋(píng)果最初表示,CSAM 檢測將在 2021 年底之前在 iOS15 和 iPadOS15 的更新中實(shí)現,但該公司最終根據 "客戶(hù)、宣傳團體、研究人員和其它方面的反饋" 推遲了這項功能。
一家名為 Heat Initiative 的兒童安全組織本周告知蘋(píng)果公司,正組織一項活動(dòng),要求公司從 iCloud 中“檢測、報告和刪除”CSAM,并要求為用戶(hù)提供更豐富的工具,來(lái)向蘋(píng)果公司舉報 CSAM 內容。
IT之家援引 Wired 報道,蘋(píng)果公司罕見(jiàn)地回應了 Heat Initiative,蘋(píng)果公司用戶(hù)隱私和兒童安全總監 Erik Neuenschwander 在回應中概述了放棄開(kāi)發(fā) iCloud CSAM 掃描功能的原因:
兒童性虐待材料是令人憎惡的,我們致力于打破使兒童易受其影響的脅迫和影響鏈。 不過(guò)掃描每個(gè)用戶(hù)私人存儲的 iCloud 數據,會(huì )成為數據竊賊發(fā)現和利用創(chuàng )造新的威脅載體。 而且這種方式會(huì )導致很多預期之外的嚴重后果,例如掃描一種類(lèi)型的內容為批量監控打開(kāi)了大門(mén),并可能產(chǎn)生跨內容類(lèi)型搜索其他加密消息傳遞系統的愿望。
蘋(píng)果公司此前在關(guān)閉 CSAM 計劃時(shí)表示:
在廣泛征求專(zhuān)家意見(jiàn),收集我們去年提出的兒童保護舉措的反饋后,我們正加大對 2021 年 12 月上線(xiàn)的 Communication Safety 功能的投資。我們決定不再推進(jìn)我們之前提出的 iCloud 照片的 CSAM 檢測工具。 兒童可以在沒(méi)有公司梳理個(gè)人數據的情況下得到保護,我們將繼續與政府、兒童倡導者和其它公司合作,幫助保護年輕人,維護他們的隱私權,讓互聯(lián)網(wǎng)成為兒童和我們所有人更安全的地方。
《沉寂 1 年多后,蘋(píng)果宣布 iCloud 放棄兒童性虐待材料(CSAM)檢測計劃》