蘋果(Apple)在八月份無預警宣布,為了進一步防止兒童性剝削內容(Child Sexual Abuse Material CSAM)在網路上流傳與散播,將進一步掃描用戶上傳到iCloud的照片;這項政策宣布後備受抨擊,也讓蘋果長期以來以「保護用戶隱私」的形象受到影響;根據外媒最新報導,蘋果已決定延後實施這項政策。

根據《9to5mac》網站報導,蘋果最新發出的聲明表示上個月宣布為了兒童保護原則,將提出新的隱私政策,為要防止這些兒童性剝削的內容在網路上被有心人士透過通訊工具蒐集以及傳播。「根據來自用戶、倡議團體、研究人員等方面的意見,蘋果決定要有更多額外的時間來蒐集意見並且予以改進,再推出這些對於保護兒童權益至關重要的功能。」

為了目前不夠明瞭此事件的讀者,蘋果先前提出的政策涉及幾方面,包含將掃描用戶上傳到iCloud的照片、iMessage會使用設備上的機器學習技術對於敏感內容提出示警,並且通知父母;第三,則是Siri以及搜尋(Search)功能將會更新,防範用戶搜尋到CSAM相關的內容。

而這項政策受到曾接露稜鏡計畫的前美國中央情報局(CIA)職員愛德華史諾登的抨擊,他指出若是蘋果可以針對兒童性剝削的內容進行掃描,明天他們就可以掃描任何內容。換言之,用戶隱私不保。國際非營利組織電子前哨基金會(EFF)則是對於蘋果改變了原本保護用戶隱私的立場感到非常失望,並認為蘋果此舉就是為系統留下一個後門,等於是破壞蘋果對於加密的承諾,以及為廣泛的濫用打開一個大門。

蘋果原先預定在iOS 15、iPadOS 15、macOS Monterey等最新系統中推出這項與兒童保護相關的新功能;但是在最新聲明中,蘋果並沒有針對計畫推出新功能的時間點,以及他們預計對於新功能提出那些改變進行說明。按照蘋果往年規劃,新系統會在新一代iPhone發表之後正式釋出,供符合規定的新舊款iPhone、iPad以及Mac用戶升級。

文章來源:Apple delays rollout of CSAM detection system and child safety features

#蘋果 #隱私 #CSAM #爭議 #iCloud