蘋果於 8 月宣佈的新安全功能,能應用於 iOS 15、iPadOS 15、watchOS 8 和 macOS Monterey 中第一個功能用於監控 Messages 應用程式,通过客户端机器学习实现扫描並在用戶收到色情圖片時發出警報,由用戶選擇是否查看內容。而且,當孩童確實點開內容後,他們的父母還會收到一條通知信息。
第二個功能影響了 Siri 和 Search,其中包括在用戶遇到「不安全」情况時向他們發出警告,以及在用戶搜索兒童性虐待資料(Child Sexual Abuse Material,CSAM)時進行干預。
第三個功能為 CSAM 掃描工具,蘋果稱其能保護兒童免受使用通訊工具來招募和利用兒童的掠奪者的侵害。蘋果指出,此工具將使用加密技術幫助限制 CSAM 線上傳播,同時兼顧用戶隱私。影像不會在雲中掃描,而是在設備上進行匹配,將影像與連結到已知 CSAM 影像的雜湊進行比較。蘋果公司表示:「CSAM 檢測將有助於蘋果為執法部門提供有關 iCloud 照片中用戶收集 CSAM 的寶貴資訊。」
在一篇描述此工具的科技論文中,蘋果表示:
「CSAM 檢測使蘋果能够準確識別和報告在其 iCloud 照片帳戶中存儲已知 CSAM 的iCloud 用戶。蘋果服務器會標記與已知 CSAM 影像雜湊資料庫匹配的影像數量超過閾值的帳戶,以便蘋果可以向國家失踪和受剝削兒童中心(NCMEC)提供相關資訊。此過程是安全的,並明確設計為保護用戶隱私」。
然而,這些功能在網上引起了爭議,並引發了隱私倡導者和密碼學專家的批評。約翰霍普金斯大學信息安全研究所(Johns Hopkins Information Security Institute)副教授和密碼學專家 Matthew Green 表示,實施密碼學來掃描包含特定雜湊照片可能會成為「向加密消息系統添加監控的要素」。儘管這些是出於善意而創建的,但卻可能會成為不法分子手中的強大武器,例如專制政府和獨裁者的手中。電子前沿基金會( Electronic Frontier Foundation )也抨擊了這項計劃,並發起了一份請願書,向蘋果施加壓力,要求其撤銷計劃。在撰寫本文時,該請求有超過 27,000 個簽名,OpenMedia 也發起了類似的請願。
9 月 3 日,Apple 表示已停止推出這項計劃,以便有更多時間來分析這些工具及其潛在的未來影響。
蘋果表示:「之前我們宣布了一些功能計劃,旨在保護兒童免受使用通訊工具來招募和利用兒童的掠奪者的侵害,並幫助限制兒童色輕內容的傳播,根據客戶、倡導團體、研究人員和其他人的反饋,我們決定在未來幾個月內花更多時間收集意見並進行改進,然後再發布這些至關重要的兒童安全功能。」