Re: [新聞] 蘋果將偵測兒童色情影像 用戶上傳iCloud

行動通訊

44282

: ──────────────────────────────────────
: 1.原文連結:連結過長者請使用短網址。
: https://www.cna.com.tw/amp/news/aopl/202108060201.aspx
: 2.原文標題:標題須完整寫出(否則依板規刪除並水桶)。
: 蘋果將偵測兒童色情影像 用戶上傳iCloud就舉報
: 3.原文來源(媒體/作者):例:蘋果日報/王大明(若無署名作者則不須)
: 中央社 譯者:李佩珊/核稿:張佑之
: 4.原文內容:請刊登完整全文(否則依板規刪除並水桶)。
: (中央社舊金山6日綜合外電報導)蘋果公司(Apple)今天表示,iPhone和iPad即將開始
: 偵測含有兒童性虐待的影像,當這些影像上傳到蘋果在美國的網路儲存空間時加以舉報,
: 不過提倡隱私權的人士對此表示憂心。

Apple 設計這套系統的時候就考慮過有人會出來靠北隱私了

背景知識

- Hash 值: 每個檔案都有一個唯一的 Hash 值 (指紋的概念) 科學家用數學保證他幾乎不會重複

每個雲端空間基本上都會在你上傳檔案的時候計算 Hash 值
為了要避免他們儲存太多重複的檔案
有兩個用戶上傳一樣hash的檔案可以只存一份就好

(例如 lol.exe 一百個用戶上傳到自己的帳號 存一百份根本是浪費空間)

---

美國國家失蹤與受虐兒童中心 將兒童色情的檔案 Hash 值資料庫提供給 Apple
iCloud 會判斷你上傳的圖片 Hash 值是不是出現在兒童色情的檔案資料庫裡面

例如兒童色情資料庫:

檔案 -> Hash 值

兒童色情圖片1.jpg -> 123456
兒童色情圖片2.jpg -> 30678
兒童色情圖片3.jpg -> 878787

你今天上傳一張圖片

圖片.jpg -> 696969
刺激.jpg ->
30678


刺激.jpg 出現在兒童色情的Hash資料庫中
前面有說到每個檔案的 Hash 值是唯一的
所以你上傳的圖片轉換成 Hash 值出現在資料庫中說明甚麼

你 在 上 傳 違 法 圖 片


讓我們來看看 iCloud 的用戶協議

---

您同意不會使用本服務於:

a. 上傳、下載、貼文、發電子郵件、傳輸或儲存任何違法、騷擾、威脅、具傷害性、侵
權、誹謗、辱罵、暴力、猥褻、侵入性的、侵犯他人隱私、仇恨、涉及種族或倫理問題的
侵犯,或其他違法的內容;

E. 進入 / 使用您的帳號與內容

蘋果公司保留採取其相信之合理必要或適當手段之權利以執行和 (或) 確認遵守本協議之
任何部分。 您承認且同意當蘋果公司相信其為合理必要且適當時,蘋果公司得無須向您
負責,而依法律要求向法律執行機關、政府單位和 (或)第三人,使其接觸、使用、保存
和 (或) 揭露您帳戶的資訊與內容,或蘋果公司善意相信該等接觸、使用、揭露或保存之
行為係屬 (a) 遵守法律之程序或請求;(b) 執行本協議,包括對任何潛在的違反情事為
調查; (c) 檢測、預防或以其他方式處理安全性、詐欺或技術問題; (d) 基於法律之要
求或准許,保護蘋果公司、其使用者、第三人或公眾的權利、財產與安全。

---

安卓仔也不用見獵心喜

或者說那我換到安卓就好

來看看 Google Drive 的協議

https://www.google.com/drive/terms-of-service/


2. Program Policies

We may review content to determine whether it is illegal or violates
our
Program Policies, and we may remove or refuse to display content that we
reasonably believe violates our policies or the law. But that does not
necessarily mean that we review content, so please don’t assume that we do.

---

基本上所有雲端空間都不可能讓你存兒童色情圖片


--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 140.113.0.229 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/MobileComm/M.1628343755.A.859.html
vi0002461樓不可能吧 這樣每上傳一張照片 就要掃上萬次hash 08/07 21:44
vi0002462樓效率很低耶 08/07 21:44
vi0002463樓不過zip起來就沒事了 根本抓不到 08/07 21:44
哪裡效率低 xdddd
LastAttack4樓以下開放卓_,果_,中國機_互咬 08/07 21:45
Medic5樓應該是自己的手機就算出hash值 等上傳時提供該值 08/07 21:46
fmatt6樓hash值應該可以用轉檔的方式改變? 08/07 21:46
可以 只要一個 pixel 不一樣 hash 值就會變了
MengXian7樓30678這個代號XD 08/07 21:47
hms52328樓一樓的意思是算出檔案雜湊值後還要和資料庫比對 08/07 21:48
請相信我這兩件事情 在現代資訊科學技術都做得非常快了 都是一年成本 100 萬美金以內可以搞定的
nevikw399樓hash 值是會碰撞的 無限大的定義域映射到有限的值域 08/07 21:48
hms523210樓當然這個我相信一定有辦法解決 先不說有沒有什麼 08/07 21:48
hms523211樓搜尋法 你上傳後他再慢慢比對就好 08/07 21:49
hms523212樓雜湊碰撞的問題也不算難解決 演算法更新或是符合時 08/07 21:50
hms523213樓再抓檔案出來比對就好 畢竟要常常發生碰撞的機會也 08/07 21:50
hms523214樓不會太多(雜湊演算法不要太舊的話 08/07 21:50
Medic15樓現在怕的是 是不是不上傳 手機也會比對資料庫 只差 08/07 21:50
Medic16樓再如果上傳 就把答案上傳 XD 08/07 21:51
Barefoot2417樓按照這方法,只要Genius或小畫家加工不就繞過了 08/07 21:53
hollen918樓掃hash是防堵已知兒色 08/07 21:53
hollen919樓第一手兒色還是要倚賴AI和人工 08/07 21:53
hms523220樓我相信比對很快 只是好像有人誤會一樓是指計算雜湊 08/07 21:57
roc07421樓上傳這種東西靠壓縮檔能避開嗎? 08/07 21:57
可以 你用 7zip 加密 或是一些黑科技的加密算法 除非 FBI 有意要查你 不然不可能自然掃掃的出來 不過還是不鼓勵違法啊
hms523222樓很慢 08/07 21:57
hms523223樓不過比對雜湊值這個有沒有啥方法加速我就不知道了 08/07 21:57
hms523224樓另外 ho大說的沒錯 大家自己想想Google相簿和FB怎麼 08/07 21:58
hms523225樓幫你找臉孔對應的就知道現在對圖片的分析已經很強了 08/07 21:58
雜湊值其實就是資料庫的字串比對而已 用最一般的 B-Tree 資料庫有加 index 要判斷其實速度很快 (更何況還有一堆新穎的技術) 總之雜湊值比對真的很 EZ 啦 我一個研究生給我足夠的錢 我都有信心可以處理 iCloud 量的雜湊值比對
roc07426樓了解,我沒有違法的東西,只是我上傳私人東西都會 08/07 22:01
roc07427樓習慣用7z壓縮並加上密碼... 08/07 22:01
那就穩 小案子你用 7z + AES-256 我猜台灣政府應該是沒能力解 (如果是大案子會找國外的公司處理就不好說)
hugh50928樓微軟的也會掃,從很久以前就明白告訴使用者了 08/07 22:03
nevikw3929樓其實 Google 最近也有新聞 08/07 22:07
Luos30樓md5? 08/07 22:09