蘋果用AI把關兒童情色照,卻遭質疑沒隱私!(下)
蘋果利用AI幫孩童把關情色照,沒想到卻被質疑沒有顧及到隱私?!(下)
因著智慧型手機的發展、網路越來越快、雲端越來越普及,導致有心人士大量散發兒童色情圖片。近幾年,全球兒童色情犯罪事件層出不窮⋯⋯因此蘋果使用 AI 人工智慧——這種無人的方式來把關兒童色情圖片的傳播(詳情請看上篇連結),想不到這個 AI 太厲害,竟引發隱私權方面的爭議!
拓展 Siri 搜尋功能,新增「提醒、干預」
蘋果表示,他們將對 Siri 功能與搜尋進行更新,利用AI 以提供有相關困擾的監護人與未成年人使用者協助。
例如:當使用者詢問該如何回報 CSAM 相關問題時,蘋果將會結束導向相關機構的聯絡方式,或是提供指引來幫助使用者。
除此之外,如果像是有使用者像要查詢有關 CSAM 或是敏感、有害的內容,系統也會進行干預,跳出警示告知使用者。
圖片來源:蘋果官網。
難以揮去的隱私疑慮
這些功能,預計今年將會在 iOS 15、iPadOS 15、watchOS 8 和 macOS Monterey 的更新中推出。
在以往,相對於 Android 使用者,蘋果的支持者們最自豪的便是 iOS 的高穩定性與嚴密的隱私保障,而這也是蘋果公司不斷強調的優勢所在。
不過現在,蘋果這次的做法與過往似乎有了很大的不同。
即使這些措施雖然是為了保護未成年、減少兒童與青少年私密照外流所帶來的傷害,但同時還是帶來不少隱私與資訊安全的隱憂。
對此,有許多資訊安全專家與機構組織都表示疑慮或反對,認為這項作法「如同在牆上打洞、裝上門後再鎖上。」
雖然有門鎖,但是風險依然存在,況且要是鑰匙不慎流出,駭客便會暢行無阻。
除此之外,也有一些人擔心此先例一開,蘋果未來可能因為各國家政府的法律規定和要求,調整審查標準、成為監控工具。例如同志相關內容、政治敏感資訊等等,極權國家的使用者更是有此擔心。
隱私保障與資料運用的平衡難題
兒童色情內容經常被視為犯罪的證據,未成年人通常是在被威脅、利誘或哄騙的情況下拍攝這些內容,而流傳於網路上更是二次傷害。
而蘋果此舉,或許是希望透過提高取得相關資訊的門檻,進而減低可能的需求,進而減少類似的兒童性犯罪再度發生。
然而,當檢警要搜查民宅前都須先向法院申請搜索票的法治社會下,蘋果直接以人工智慧審核使用者彼此之間的私人訊息和個人儲存空間等方式,來試圖達成防治的目的,是否有符合比例原則?個人的隱私考量與社會整體的治安,該如何平衡呢?
或許是個需要大眾不斷思考與討論的問題。
更多閱讀:
Facebook 開源Python 語言的安全與隱私工具Pysa