轉載從: Tech News 科技新報
人工智慧還有很長的路要走。它需要明白在樹上爬的動物不一定是松鼠,也可能是貓咪;尖頭長柱狀物體也不一定是燈塔,有可能是風鈴;在鮮豔物體上的小生物不一定是蜜蜂,也可能是蝸牛。
雖然人工智慧飛速進步,但還沒有我們想像的強大。它也會犯錯,有些錯誤在我們看來甚至有些「低級」。
Natural Adversarial Examples are real-world and unmodified examples which cause classifiers to be consistently confused. The new dataset has 7,500 images, which we personally labeled over several months.
Paper: https://t.co/L5YMIHZGbz
Dataset and code: https://t.co/4UzQWC4TjG pic.twitter.com/pd75CyK54T— Dan Hendrycks (@DanHendrycks) 2019年7月17日
加州大學柏克萊分校的博士生介紹了一些真實案例,展示的 7,500 張圖片案例,AI 基本都在「自然對抗性案例」敗下陣來,精準度下降 90%,準確度也只有 2% 左右。
雖然這些圖像在人類眼裡都非常好分辨,但 AI 的演算法下,蘑菇會認成椒鹽捲餅,綠色蜻蜓認成人孔蓋,呆萌的松鼠也認成體積大數倍的海獅。
A dragonfly mislabeled as a manhole cover? What about a squirrel confused for a sea lion? These images are challenging algorithms to be more resilient to attacks. https://t.co/GfmhjoRfE9
— MIT Technology Review (@techreview) 2019年6月22日
不只辨識圖片出現大錯誤,想好好「調教」AI,將它引回正確道路也不容易。實驗案例證明了 AI 辨識目前分類器有深層缺陷,會過分依賴顏色、紋理和背景提示,同時,博士發現提高強健性的流行訓練技術也收效甚微。
這個資料庫是 ImageNet 的一個子集,它由不斷欺騙人工智慧的圖像組成,包含超過 1,400 萬幅手工標記的圖像用於訓練 AI。如果你想讓 AI 看到貓時就能認出這是貓,你只需要把它指向貓的類別,然後讓 AI 辨識就可以了。
雖然故意讓 AI 犯錯似乎是件無聊且瑣碎的事,但這都有意義。AI 如果實際運用出現錯誤,那可能會造成無法彌補的嚴重後果。比如自駕車將行人誤認為紅綠燈,就可能引發交通事故。
網路也需要 AI 的辨識功能幫忙鑑別圖像內容。Facebook 就曾披露如何使用 AI 工具做內容審核。Facebook 的自動化 AI 工具主要表現在裸露、暴力、恐怖內容、仇恨言論、垃圾信件、虛假帳號和自殺預防七方面。
如果社交網路裸露和暴力圖片能成功被 AI 技術檢測,AI 就能標記圖片敏感元素,進行高效處理和提示。這些圖片如果交給人工審核,不僅效率低,也會為審核人員帶來更多工作量和精神壓力。
祖克柏也說過,「建立可檢測乳頭的人工智慧系統,要比確定什麼是令人不適的語言要容易」。
AI 辨識圖像就像人讀點字,圖像元素是一個個資訊點,最終要透過資訊點做最合理的猜測,這也像管道系統,不同管道連接最終形成系統。這種方法讓 AI 在特定圖像視覺處理能輕易超過人類。比如說在動植物物種辨識,AI 就比人類更專業。
但部分成功還不能讓人對 AI 圖像辨識充滿信心,約克大學研究員 Amir Rosenfeld 就表示,「有各種各樣奇怪的事情發生,告訴我們目前的物體檢測系統是多脆弱。」
Our new work shows how self-supervised learning can surpass supervised learning for out-of-distribution detection, and that it can improve adversarial, common corruption, and label poisoning robustness: https://t.co/eTjineQKJW pic.twitter.com/KouzVtOE3W
— Dan Hendrycks (@DanHendrycks) 2019年7月2日
這些「自然對抗性案例」的存在顯示現有的 AI 還沒那麼智慧,它們的「深度學習」也需要更長時間、更多訓練。
(本文由 愛范兒 授權轉載;首圖來源:shutterstock)