蘋果兒童保護功能(蘋果掃描相冊引起信任危機)
2023-05-29 06:19:22
蘋果在 8 月 12 日發布了一份聲明,表示想要重拳打擊兒童性虐待,限制兒童性虐待內容 (CSAM) 的傳播,具體做法是:
如果用戶向 Siri 提問或用 Spotlight 搜索兒童性虐相關的內容,蘋果設備會進行幹預,或上報有關部門;信息 (Messages) 將新增監測工具,兒童接收色情圖片時,圖片會被模糊處理,而在發送類似圖片之前會彈出警告,若堅持發送,家長手機則會收到提示消息;蘋果會在用戶將照片上傳 iCloud 之前,通過對比哈希數值的方式,判定所上傳照片是否為兒童色情內容,如有發現,會上報至國家失蹤和受虐兒童中心 (NCMEC),這一套流程被稱為 CSAM 掃描。▲ 圖片來源:蘋果
原本這是一件大好事,至少初衷是好的,可以掐斷兒童色情內容的部分傳播路徑,但人們對於第三項 「掃描相冊」這事兒存疑。
一是質疑蘋果可能利用這一理由查看用戶相冊,二是擔心在這過程中,黑客趁機侵入 iCloud 導致隱私洩漏。
這並不是無辜群眾在杞人憂天,事情發酵至今,連斯諾登等人都發文表示自己對蘋果此舉的不滿。
蘋果後續進行了多次澄清聲明,但為時已晚,蘋果已深陷輿論漩渦。
狼來了狼走了,即便後面蘋果撤銷了上線 CSAM 掃描功能,人們也會懷疑蘋果留有後手,這次事件至今還沒有定論,尚且未知蘋果會否視事態嚴重性延後或取消 CASM 相關計劃。
至少我們從股票市場中,看不到蘋果股價受這次風波影響的痕跡。
這次蘋果樹掉下的果子,砸得不是牛頓,而是消費者。
,