您的位置:首頁»數碼科技»正文

多倫多大學創造“隱私篩檢程式”,利用演算法干擾社交巨頭的人臉識別

過去幾個月資訊安全和資料隱私問題被人們熱議, 熱議的內容中包括了英國資料分析公司 Cambridge Analytica 的資料收集策略和 Facebook 首席執行官馬克·紮克伯格在美國參議院的證詞。

人臉識別技術利用基於人臉特徵點的演算法進行識別, 因此人臉特徵點是其中的一種主要的資料形式。 每次你上傳一張照片到 Facebook、Instagram, 或者其他地方, 你都會將照片中人的面部特徵點和照片中其他物體的特徵點提供給這些學習系統。

為了解決這個問題, 多倫多大學的 Parham Aarabi 教授和研究生 Avishek Bose 領導的研究小組開發了一種演算法來動態干擾這項技術。

這種技術原理基於“對抗性訓練”, 本質上是建立起兩種相互對抗的演算法。 Aarabi 和 Bose 創建了兩個神經網路, 一個是識別人臉的網路, 另一個是破壞其既定目標的神經網路。 這兩個網路互相學習, 相互提升效果。

Bose 在接受 Eureka Alert 的採訪時說:“具有破壞性的人工智慧可以‘攻擊’人臉識別時神經網路所尋找的東西。 例如, 如果檢測 AI 正在尋找眼角, 它會調整眼角, 這樣眼睛就不那麼明顯了。 它會在照片中產生非常細微的干擾, 但對探測器來說, 這些干擾足以愚弄整個系統。 ”

在實踐中, 這意味著用戶可以使用一個篩檢程式 (比如 Instagram 或 Snapchat 上的普通視覺篩檢程式), 改變圖像中人眼無法察覺的特定圖元, 使人臉識別技術失效。

在一個包含 600 多張不同種族、光照和環境的人臉圖像的測試集上,

該系統能夠將可檢測的臉從 100% 降低到 0.5%。

研究小組將在 2018 年 IEEE 多媒體信號處理國際研討會上展示他們的研究成果, 之後他們希望通過一個應用程式或網站將該篩檢程式公之於眾。

“十年前, 這些演算法必須是人類定義的, 但現在神經網路可以在訓練集上自己學習, ”Aarabi 說。 “最後, 他們可以做一些非常令人驚奇的事情。 這是一個令人著迷的領域, 有巨大的潛力。 ”

Next Article
喜欢就按个赞吧!!!
点击关闭提示