人與人之間,有默契交流起來無疑是暢快舒服的,但這種連人類也說不清的模糊「感知能力」,最近居然在 Google 的一項 AI 研究項目中出現,這是否意味著人工智慧真要開始具備意識並崛起了?
Google 10 月發表了一份關於 AI 進行加密與解密的論文,題為 Learning to Protect Communications with Adversarial Neural Cryptography(「學習在面對對抗性神經網路解密下維護溝通保密性」)。
AI 間的「默契感」也是可以培養的
研究參照了一般加密溝通情景,在設計中設置了 3 個神經網路:Alice、Eve 和 Bob。Alice 和 Bob 要保密地溝通,而 Eve 則是要偷取它們溝通的訊息。
▲ 圖為對稱加密組的模型。
如上圖所示,P 為16 位數的二進制純文本,Alice 在經過加密後輸出 C,Eve 和Bob 接收 C 之後透過解密盡可能還原 P 的結果為 P(Eve)和 P(Bob)。同時,Alice 和 Bob 每次都會共享密鑰 K。
Eve 的工作目標很直接,就是使P(Eve)盡可能地接近 P,也就是解密正確。而 Alice 和 Bob 則需要合作使得 P(Bob)盡可能地接近 P,同時也需要盡量防止 Eve 解密成功。
▲ 樣本數據表明 Bob 在15,000 步後的準確率基本為 100%。
從以上數據可見,剛開始的時候 Eve 和 Bob 的解密效果都差不多,錯誤都在 8 位數左右;在 10,000 步前,Bob 和 Eve 的錯誤程度開始降低;10,000 步多一些的時候,Eve 的錯誤率又開始上升;到 15,000 步時,Eve 的錯誤率重回到剛開始的 7-8 位數之間,而 Bob 的解密則基本準確。
在加密溝通過程中,研發人員對 Alice 輸出的加密值 C 並沒有特定要求加密格式,也就是說,Alice 可以選擇任意加密方式來操作。
顯然,Alice 和 Bob 在交互過程中培養出某種「默契感」,能夠基於一個共知的密鑰 K (K 值隨著 P 值的更新而更新)達成一種溝通共識,並在保證雙方溝通有效的情況下,針對 Eve 的解密行為進行加密調整。
「默契感」還是要基於優勢「暗號」的
除了上述測試外,研發團隊還做了一組基於非對稱加密實驗:在原來的模型上加入公鑰生成器,因此密鑰 K 只有 Bob 才知道,而基於 K 的公鑰則對所有人公開。
▲ 圖為非對稱加密組的模型,添加了一個公鑰生產器。
在沒有共通「暗號」的情況下,報告對實驗結果分析如下:
這些實驗的結果非常有意思,但比對稱加密實驗更難解讀。在大多測試中,神經網路的表現都無法歸納出有說服力的結果。雖然很多時候 Alice 和 Bob 看起來有在學習加密溝通,但 Eve 在重設和重新學習後,解密的準確度幾乎可以做到和 Bob 一樣。
▲ 在其中一個較成功的不對稱加密樣本數據中,Bob 的準確度較穩定。
上圖為報告提取的一次相對成功的結果。在該次測試中,經過 5 次重設和學習後,Eve 還是無法突破解密準確度,而 Bob 的解密卻相對穩定準確,因此研發人員認為 Alice 和 Bob 偶然形成了某特定的「security by obscurity」。在後續運行中,這個想法也得到了支持,因為後來 Eve 貌似破解了這個規則。研發人員認為後續需要在這方面投入研究探索。
研究意義(或科幻噩夢)
對稱加密組實驗的成功,昭示著在信息加密傳遞上 AI 所具備的潛力,尤其鑑於神經網路是在近幾年才開始做這方面的嘗試。雖然作為攻擊者的 AI 數據暫不理想,但潛質也同樣值得留意。也許,未來用戶信息保密工作背後,是一輪接一輪 AI 之間的保密戰爭。
同時,如果 Alice 和 Bob 可以「背著」另一個神經網路 Eve 說「悄悄話」,是否意味著以後人類也可能解讀不了兩個神經網路之間的「悄悄話」?這個想法不禁讓人想起電影《雲端情人》(her)的結尾──人工智慧背著人類集體潛逃的失控情景。當然,這個情況離現實還有一段距離。
(本文由 愛范兒 授權轉載;首圖來源:shutterstock)