大家可能記得,蘋果最近幾年一直在用的,宣傳 iOS 系統(tǒng)隱私性的廣告語:
“What happens on your iPhone, stays on your iPhone.”
Or does it? 事實(shí)真的如此嗎?
過去的事情暫且不提。我們現(xiàn)在可以肯定的是,在今年晚些時(shí)候發(fā)布的 iOS 15 和最新版 Mac 操作系統(tǒng)Monterey上,蘋果就要堂而皇之地“偷看”你的照片了。
發(fā)生了什么
昨天,約翰·霍普金斯大學(xué)加密學(xué)教授 Matthew Green 在 Twitter 上突然爆出一條大新聞:多名知情人士確認(rèn),蘋果即將發(fā)布一項(xiàng)用于掃描檢測兒童色情虐待內(nèi)容 (Child Sexual Abuse Material) 的端側(cè)工具。
端側(cè)的意思就是掃描工作在用戶設(shè)備上完成。截圖來源:Matthew Green 的 Twitter 賬號今天,蘋果也在官網(wǎng)正式宣布了這一消息:
截圖來源:蘋果官網(wǎng) https://www.apple.com/child-safety/ 這個(gè)系統(tǒng)的工作原理大概是這樣的:
首先,蘋果會對用戶在 iPhone 等各類蘋果設(shè)備上接收、保存和發(fā)送的照片提取哈希值。
然后,蘋果會用這個(gè)值和美國“國家失蹤和被剝削兒童中心”的數(shù)據(jù)庫進(jìn)行比對,驗(yàn)證涉事照片是否屬于兒童色情虐待內(nèi)容。這個(gè)數(shù)據(jù)庫將會保存在用戶設(shè)備的本地。比對檢測工作也是在本地完成的。
用戶在 iMessage 上收到或者發(fā)送照片。系統(tǒng)會在后臺完成比對檢測工作。如果系統(tǒng)認(rèn)為它屬于露骨內(nèi)容,iMessage 就會暫時(shí)屏蔽掉這張照片、詢問,并再次確認(rèn)用戶是否要瀏覽或發(fā)送這張照片。
不僅如此,如果用戶本身是少年兒童,并且設(shè)置了家庭賬號的話,iOS 系統(tǒng)還會通知家長。
圖片來源:蘋果如果你以為所有這些真的全部在本地完成的,不涉及到蘋果公司層面的隱私嗅探行為,那你就太小看蘋果了。蘋果也會用類似的哈希算法對用戶發(fā)送到 iCloud 保存的照片(同樣端到端加密)進(jìn)行檢測,并且在上傳之前給照片文件增加一串保密信息。
如果涉事照片被判定為兒童色情虐待內(nèi)容,蘋果的服務(wù)器將可以對照片進(jìn)行解密,并且交由人工進(jìn)行二次審核。
安全專家認(rèn)為,蘋果設(shè)計(jì)的這套打擊兒童色情的技術(shù),雖然設(shè)計(jì)目的是好的,但可能存在嚴(yán)重的安全和隱私風(fēng)險(xiǎn),并且完全顛覆了“端到端加密”原本存在的意義。
事件的影響
“最初我的理解是,這項(xiàng)技術(shù)用于在端側(cè)對云存儲的照片進(jìn)行掃描。但是最終,它可能會成為在加密通訊系統(tǒng)中增加監(jiān)控的一個(gè)關(guān)鍵因素!盙reen 評論道。他還表示,在端到端通訊系統(tǒng)中加入這樣的掃描系統(tǒng),一直以來都是全球各地執(zhí)法部門的主要需求。
“棱鏡”計(jì)劃的爆料人愛德華·斯諾登也對蘋果此舉頗為不滿,甚至在 Twitter 上發(fā)布了一張梗圖吐槽:
左邊:蘋果2015年:我們不讓 FBI 查看死掉的恐怖分子的手機(jī),只為保護(hù)你的隱私。
右邊:蘋果2021年:我們會用官方黑名單檢測你的相片冊和 iCloud 照片,除了報(bào)警之外,還會告訴你家長……
不管怎樣,蘋果將會在新版操作系統(tǒng)里“偷看”你的照片這件事,算是坐實(shí)了。
至于什么"What happens on your iPhone stays on your iPhone",只是少數(shù)用戶一廂情愿的假象了……
需要明確的是,蘋果并不是第一家、唯一一家在做類似事情的公司。包括谷歌(從2008年開始)、微軟(2009年)、Facebook(2011年)和 Twitter(2013年)等公司,都已經(jīng)在用哈希算法等相關(guān)技術(shù),對兒童色情虐待內(nèi)容進(jìn)行預(yù)防、偵測和打擊了。
知名互聯(lián)網(wǎng)用戶權(quán)益機(jī)構(gòu)“電子前線基金會”(EFF) 在2019年曾經(jīng)撰文指出:這種號稱專為打擊兒童色情內(nèi)容而設(shè)計(jì)的所謂“用戶端側(cè)掃描工具”,是一個(gè)偽命題。
1)從技術(shù)上來講,這類工具無法將其檢測能力限制在兒童色情這一類內(nèi)容上。
具體來說,這類檢測技術(shù)核心原理都是對圖片提取哈希值,然后和一個(gè)“官方”的數(shù)據(jù)庫進(jìn)行比對。
但是目前機(jī)器學(xué)習(xí)領(lǐng)域已經(jīng)有了先進(jìn)的生成對抗網(wǎng)絡(luò)技術(shù),可以對兩個(gè)不同的文件,比如兩張完全不同的照片,實(shí)現(xiàn)“哈希碰撞”(也即這兩張完全不同的照片擁有相同的哈希值):
圖示:右邊一列的公司 logo 和中間一列用算法生成的“人臉”圖片,實(shí)現(xiàn)了哈希碰撞。圖片來源:Nick Locascio
任何擁有官方數(shù)據(jù)庫操作權(quán)限的人,都可以自己添加新的哈希值條目到數(shù)據(jù)庫,從而擴(kuò)大這個(gè)圖片檢測系統(tǒng),所檢測和審查的對象范圍。
EFF 指出,在這樣的場景下,“由于數(shù)據(jù)庫只包含哈希值,而兒童色情圖片的哈希值和其它圖片的哈希值(可能)沒有區(qū)別,那么掃描兒童色情內(nèi)容的系統(tǒng),就無法從技術(shù)上只針對兒童色情內(nèi)容。”
2)EFF 還指出,這類所謂的端側(cè)掃描工具,實(shí)際上打破了端到端加密的承諾。
端到端加密的普遍定義是:在一個(gè)通訊系統(tǒng)中,只有內(nèi)容的發(fā)送端和接收端可以看到所發(fā)送的內(nèi)容,其他任何人,包括其他用戶,以及通訊系統(tǒng)的運(yùn)營者(蘋果)都無法看到,也沒有能力對通過加密方式傳送的信息進(jìn)行解密。
“如果一個(gè)系統(tǒng)有直接、有效解密很大一部分信息的能力,它就不再是一個(gè)端到端加密的系統(tǒng)了,”EFF 指出。
3)前面提到,蘋果的這個(gè)檢測系統(tǒng),一旦偵測到可能的兒童色情內(nèi)容,還會引入真人進(jìn)行二次檢驗(yàn)。這就進(jìn)一步擴(kuò)大了用戶隱私泄露的風(fēng)險(xiǎn)。
目前蘋果沒有透露究竟誰有權(quán)限查看這些照片,是蘋果自己的員工還是外包機(jī)構(gòu)——希望不是后者,畢竟之前蘋果的外包維修商 Pegatron 就出過惡意泄露用戶隱私照片的嚴(yán)重事故。
4)這樣的檢測系統(tǒng),其實(shí)很容易通過簡單的方法逾越。
那些傳播兒童色情內(nèi)容的犯罪嫌疑人,可以更換其它通訊軟件,抑或?qū)D片進(jìn)行簡單的修改(比如加上帶有微弱遮蓋效果的字幕),就可以讓一張圖片的哈希值“面目全非”。
圖片來源:Jens Segers 綜合考慮到前面所有提到的關(guān)于這個(gè)系統(tǒng)的弊端,得出的結(jié)論是:它打開的隱私缺口太大,制約兒童色情內(nèi)容傳播的實(shí)效卻無法保證。說好聽,事倍功半;說難聽點(diǎn),反而會弄巧成拙。
你怎么看蘋果這次“偷看用戶照片”的反兒童色情內(nèi)容傳播系統(tǒng)?你覺得它會起到多大的幫助?你會擔(dān)心它對端到端加密和用戶隱私帶來的負(fù)面效應(yīng)嗎?歡迎在留言中分享你的看法。
注:封面圖來自于 Chris Velazco 的 Twitter 賬號,版權(quán)屬于原作者。如果不同意使用,請盡快聯(lián)系我們,我們會立即刪除。