──────────────────────────────────────
1.原文連結:連結過長者請使用短網址。
https://www.ithome.com/0/716/194.htm
2.原文標題:標題須完整寫出且須符合內文(否則依板規刪除並水桶)。
蘋果回應解釋放棄兒童性虐待材料(CSAM)檢測計劃的原因
3.原文來源(媒體/作者):例:蘋果日報/王大明(若無署名作者則不須)
IT之家/故淵
4.原文內容:請刊登完整全文(否則依板規刪除並水桶)。
2023/9/1 8:24:41
IT之家 9 月1 日消息,蘋果公司在遭到媒體、非營利機構和消費者的諸多反對之後,於
去年12 月宣布,iCloud 雲服務停止兒童性虐待材料(CSAM)檢測計劃。
這項檢測計劃於2021 年8 月開始測試,主要會檢測存儲在iCloud 的CSAM 圖像資料,但
自推出以來備受爭議。
https://i.imgur.com/l9soptc.jpg
蘋果最初表示,CSAM 檢測將在2021 年底之前在iOS15 和 iPad OS15 的更新中實現,但
該公司最終根據"客戶、宣傳團體、研究人員和其它方面的反饋" 推遲了這項功能。
一家名為Heat Initiative 的兒童安全組織本週告知蘋果公司,正組織一項活動,要求公
司從iCloud 中“檢測、報告和刪除”CSAM,並要求為用戶提供更豐富的工具,來向蘋果
公司 舉報CSAM 內容。
IT之家援引Wired 報導,蘋果公司罕見地回應了Heat Initiative,蘋果公司用戶隱私和
兒童安全總監Erik Neuenschwander 在回應中概述了放棄開發iCloud CSAM 掃描功能的原
因:
"
兒童性虐待材料是令人憎惡的,我們致力於打破使兒童易受其影響的脅迫和影響鏈。
不過掃描每個用戶私人存儲的iCloud 數據,會成為數據竊賊發現和利用創造新的威
脅載體。
而且這種方式會導致很多預期之外的嚴重後果,例如掃描一種類型的內容為批量監控
打開了大門,並可能產生跨內容類型搜索其他加密消息傳遞系統的願望。
"
蘋果公司此前在關閉CSAM 計劃時表示:
"
在廣泛徵求專家意見,收集我們去年提出的兒童保護舉措的反饋後,我們正加大對
2021 年12 月上線的Communication Safety 功能的投資。 我們決定不再推進我們之前提
出的iCloud 照片的CSAM 檢測工具。
兒童可以在沒有公司梳理個人數據的情況下得到保護,我們將繼續與政府、兒童倡導
者和其它公司合作,幫助保護年輕人,維護他們的隱私權,讓互聯網成為兒童和我們所有
人更安全的地方。
"
相關閱讀:
《 沉寂1 年多後,蘋果宣布iCloud 放棄兒童性虐待材料(CSAM)檢測計劃 》
5.心得/評論:內容須超過繁體中文30字(不含標點符號)。
──────────────────────────────────────
Wired 報導原文:
https://www.wired.com/story/apple-csam-scanning-heat-initiative-letter/
Apple’s Decision to Kill Its CSAM Photo-Scanning Tool Sparks Fresh
Controversy
Child safety group Heat Initiative plans to launch a campaign pressing Apple
on child sexual abuse material scanning and user reporting. The company
issued a rare, detailed response on Thursday.
以下引述 Erik Neuenschwander 的說法:
“Child sexual abuse material is abhorrent and we are committed to breaking
the chain of coercion and influence that makes children susceptible to it,”
Erik Neuenschwander, Apple's director of user privacy and child safety, wrote
in the company's response to Heat Initiative. He added, though, that after
collaborating with an array of privacy and security researchers, digital
rights groups, and child safety advocates, the company concluded that it
could not proceed with development of a CSAM-scanning mechanism, even one
built specifically to preserve privacy.
“Scanning every user’s privately stored iCloud data would create new threat
vectors for data thieves to find and exploit," Neuenschwander wrote. "It
would also inject the potential for a slippery slope of unintended
consequences. Scanning for one type of content, for instance, opens the door
for bulk surveillance and could create a desire to search other encrypted
messaging systems across content types.”
這件事情總算是正式落幕了,
他們也算是正式承認大眾最為擔心的點,
也就是 CSAM資料庫被抽換成或添加政府維穩需要的字詞或者資訊,
並且系統可以加以延伸判斷圖片以外的事情,
且不會破壞點對點加密,所以非常「有隱私」。
個人覺得是很高興看到蘋果至少在這件事情上有最後撤回並給出正式的理由,
當初一度炎上 Reddit 的時候基本上鬧得沸沸揚揚,EFF 還直接開無人飛機去總部抗議,
當初一度也沒有做出任何道歉然後一直辯解,
連自家的金招牌 Air Force 1 (庫克說法) 都拿出來當擋箭牌,
讓很多人看了更加的憤怒,
最終導致九月那場預錄發布會蘋果根本連一個「隱私」字詞都不敢提。
https://www.eff.org/files/banner_library/apple_plane_photo-edited2.jpg
https://www.eff.org/deeplinks/2021/09/why-eff-flew-plane-over-apples-headquarters
https://www.youtube.com/watch?v=OQUO1DSwYN0
不過也許他們當初真的很純真的覺得這樣做很好,也許...
--
推 Lyeuiechang: [新聞]有狼師一直戳女學森(.)(.)而被家長吉上法院...12/04 23:42
→ Xhocer: ) (12/04 23:44
推 xj654m3: ( Y )12/04 23:46
→ Xhocer: \|/12/04 23:48
推 xj654m3: (╮⊙▽⊙)ノ|||12/05 00:47
推 Lyeuiechang: /|\╰╮o( ̄▽ ̄///)<12/05 01:17
--