SK-II 將 Future X 智慧商店搬進CES 會場,也是自 2018 年 5 月在東京、上海與新加坡開店後,第一次前進北美向全球市場介紹它的運作方式,藉由物理性和數據性的資料整合分析,幫助消費者診斷肌膚,並在購物上作出好選擇。當消費者進入店裡時,會先在手腕配掛紅色矽膠圈,之後有關你皮膚的數據、購買資訊都會存在裡面。接著坐到掃描儀前面,會先初步判斷妳的年齡並作全臉掃描,透過臉部辨識、電腦視覺、人工智慧和SK-II 專有的皮膚科學與診斷創新技術,對臉部膚質進行分析。約 1 分鐘掃描就完成,並產出五個衡量指標,分別是光澤度(radiance)、白皙度(spot control)、緊緻度(firmness)、抗皺度(wrinkle resilience)、細滑度(texture)。 檢測的結果大致蠻準確的,但如果有上妝,掃描儀的判讀準確度會下降。之後皮膚的資料就會匯進產品購買頁面,當拿起相對應的產品,就會以即時互動的方式讓使用者知道哪些商品可以改善狀況,而哪些商品其實助益不大。若你對哪些產品有興趣,只要到購買的頁面,手一揮動手環就能追蹤你的手勢,把購買的產品放入購物車中。除了智慧商店,SK-II 也提供全新包裝的智慧瓶裝護膚精華,這款 SK-II 有史以來最暢銷的產品第一次在包裝上添加了新功能,藉由物聯網技術,消費者在手機上下載 SK-II 的 APP 後,在家便能獲得 SK-II 的護膚方案。(首圖來源:SK-II)
「無人飛機穿梭於農田上空,一面監控作物生長狀況,一面將資料傳送雲端,透過雲端運算,進行符合成本與對環境傷害最少的農藥與化學肥料施用分析,以及對水資源最有效的管理,農民透過手機或平板電腦連上雲端,在家也能掌握田間狀況,」這是農委會農業試驗所對智慧農業 4.0 時代的描繪。智慧農業為何重要?據推估,未來 10 年有近 11 萬名農友將因高齡退場。農業試驗所所長陳駿季更指出,台灣小農居多,每戶耕地面積不到 1.1 公頃,突破小農單打獨鬥的困境,就要透過智能生產管理,提升生產效率。這股新農業革命,藉由新科技工具,如感測、智能裝置、物聯網、巨量資料,整合建構出智農產銷與數位服務體系。掌握大數據後,農民可根據作物特性分析,調整土壤養分、灌溉行程,安排作物輪作方式等。等產品到消費者手上,掃描包裝上的 QR Code 就能看到栽種作物的自動化環控廠房及採收過程。善用資通訊的好處,顯而易見。像雲林水林鄉的農友陳建助,種植地瓜和水稻,面積達 70 公頃,但卻是 200 多筆零碎分散在水林的不同田區。過去哪塊地何時灌溉、施肥,都寫在簿子裡,後來雖改用電腦表格紀錄,難免時間不確實,經常無法確定該區域是否已用過藥或施過肥,品質難管控。透過使用農委會資訊中心「農務 e 把抓」,陳建助將生產過程全登錄,系統亦會根據作物不同,建議工作排程,時間到了還會跳出提醒。另一項好處是所有過程皆能記錄追溯,助於食品安全把關。這股「智慧農業 4.0」浪潮,又以無人機,扮演關鍵角色。無人飛行載具(Unmanned Aerial Vehicle, UAV,簡稱無人機),可執行空拍、資訊蒐集、巡檢、監控等任務,深具商業潛力。農委會林務局農林航空測量所 7 日舉行「國產定翼型無人機交機儀式記者會」,以「熊鷹」為農航所第一款國產定翼型無人機的名稱,宣告農航所的專業航拍進入無人機作業的新時代。農委會副主委李退之透露,每當遭逢天災農損,就需要農航所平時累積的航拍圖資進行分析,讓農委會精準掌握災後損失狀況,做出最正確的政策決定。因此他肯定,農航所採用無人機是未來趨勢。國外 PwC 曾預測 2020 年全球無人機應用市場規模將達 1,270 億美元,涵蓋礦場、通訊、保險業、媒體與演藝、保安、運輸、農業和基礎設施等。其中應用於農業和基礎設施的占比高達七成,包括空拍、噴藥、監測生長等,層面廣泛。以國內為例,2018 年發生過外來害蟲「荔枝椿象」危害果樹的情形嚴重。苗栗農改場運用無人機施放荔枝椿象天敵──平腹小蜂,可大面積飛行,節省人力與時間,GPS 定位、定量、平均噴灑的優點,成為防治尖兵。亦是智慧農業的實踐。農識國際總經理陳炤堅關注台灣農業超過十年。他創立農識國識,從事農業整合服務,內容涵蓋從產、銷售、品牌、營運等,協助農企業做策略方法和轉型服務。他歸納,農業智慧化的方向,是以省工高效的精準田間管理,搭配專家解決系統,找出最佳栽培餵飼方案。他看好,台灣農業不是過去的延伸,運用多元創新技術的導入,成為具未來性的新產業。陳駿季觀察,智慧農業趨勢不可逆,但也坦言很難一、兩年就有明顯成效,「其他國家都投入百億等級在推動,我們不能不跟上。」他比較。過去,務農是看天吃飯,未來,農業將可憑「智慧」吃飯!台灣必須加緊腳步跟上(本文由 遠見雜誌 授權轉載)
CES 展在美國時間 11 日落幕,展示解決全球問題和改善生活的創新力量,美國電信商 Verizon 認為,「5G 將改變一切」,IBM 高層則認為,AI 將證明數據是「世界最大的自然資源」。美國消費性電子展(CES)經過 4 天的展期,超過 4,500 家參展商在超過 290 萬平方英尺的展覽空間,向約 18 萬名與會者展示最新技術創新,包含全球科技品牌 LG、三星、華為、英特爾、高通等,以及汽車品牌賓士、BMW、Audi、Nissan 等,和數以千計的新創公司同場較勁。美國消費者技術協會(CTA)總裁兼首席執行官夏皮洛(Gary Shapiro)表示,CES 展示解決全球問題和改善全球生活的創新力量,CES 的想法和商業聯繫成為全球科技活動,也是今年激動人心的一週。「現在每個企業都必須擁抱技術才能取得成功」,CES 執行副總裁恰普卡(Karen Chupka)說,像消費日用品公司寶鹼(Procter & Gamble)、農業機械設備品牌強鹿(John Deere)和美國國防合約商雷神(Raytheon)這樣的公司在 CES 2019 證明了這一點。CES 2019 主題演講中,有來自 AMD、AT&T、IBM,LG 和 Verizon 各技術領域的高層發表看法。CTA 發表 2019 年國家對創新的支持程度評分,並宣布將投資 1,000 萬美元用於女性、有色人種和其他族群的創業公司、企業和風險投資公司與基金;CTA 還發表新書《忍者未來》,探索在瞬息萬變的未來保持競爭力所需的技能。5G 生態系統是運輸、VR(虛擬實境),運動科技和智慧健康的支柱,Verizon 首席執行長衛翰思(Hans Vestberg)主題演講說,「5G 將改變一切」,他認為,透過 5G,從無線技術看到更多承諾。AT&T 首席執行長約翰多諾萬(John Donovan)則討論公司最近推出的 5G Evolution 網路。CES 2019 顯示 AI(人工智慧)將影響生活的方方面面,IBM...
去年 9 月,集聰明、膽量和瘋狂於一體的特斯拉 CEO Elon Musk 曾假設,人類社會可能是更進階文明控制下的一場模擬遊戲。雖然聽起來腦洞有些大,但你不得不承認,人類正為各種目的使用模擬器,比如教飛行員如何飛行,訓練 AI 演算法找出貓和狗的不同。據了解,類似 Improbable 這種新創公司嘗試模擬整個世界,所以即使我們當不了火星人,至少能在地球破敗不堪時進入模擬的理想王國,逃避現實。在自動駕駛業,模擬則成了自動駕駛系統學習駕駛技能的好幫手。「革命」尚未成功,自駕車仍需努力看著鋪天蓋地的自動駕駛新聞,你可能會覺得,自駕車馬上要占領道路,事實上還早呢。誠然,類似 Waymo 等公司已開始進行有限的部署了,自駕公車或礦車更在各自領域取得不錯的成績,但真正成氣候的只有 ADAS 系統,但自動化功能有限,被許多自動駕駛「基本教義者」看不起。關於自動駕駛,SAE 具體分為五級,到 Level 5 後就能隨心所欲享受自駕車服務了,而現在較常見的 ADAS 系統,只到 Level 2。想達到 Level 5 自動駕駛(特別是大規模),需要多重因素配合才能成功。比如超快的無線通訊(5G),高精準地圖和類似光學雷達的專屬感測器。當然,自動駕駛系統的第一要務還是學會如何駕駛。為了讓演算法認識真正的駕駛可不是《俠盜獵車手》(其實已經有公司利用這套遊戲來做訓練資料了),大家主要還是靠數百萬公里的實地駕駛。自駕車步入「模糊矩陣」這樣日以繼夜的採集路測資料不但費時費錢,還非常危險。首先,尚未成熟的自駕車可能會造成致命事故,就像去年 3 月 Uber 測試車車禍。其次,魯莽測試會招來反對者的攻擊,Waymo 測試車在鳳凰城遇到的惡意攻擊就是最好的例子。除了路測歷程突破 1,000 萬英里,Waymo 還藉助類似矩陣的模擬技術 Carcraft 訓練自駕車。2018 年一年,Waymo 虛擬車隊 2.5 萬台測試車在虛擬世界跑了 50 億英里。Waymo 虛擬世界首席建築師 James Stout 解釋了工作原理:我們有同時執行的不同宇宙和世界,不斷測試微小變數同時,我們也在創造車輛從未見過的模擬場景。模糊在這裡有重要作用。所謂的「模糊」其實始於一個駕駛場景,比如四面停車的路口,在這裡 Waymo 數不清的實地測試經驗能幫上大忙。不過,順利攻克難關後,資料開始模糊化,變出近乎無窮場景等待虛擬測試車挑戰。自動駕駛系統積累的經驗隨後會回饋到實地測試。舉個簡單的例子,這就像《駭客任務》的救世主尼歐直接在雲端下載成龍的全套功夫,瞬間變身武術高手。▲ Waymo 的「矩陣」。AI 晶片製造商輝達一直是自動駕駛革命的先鋒,軟硬體產品已是許多巨頭(如福斯和 Volvo)標配。輝達也有自己的模擬平台「DRIVE」,能模擬一整套自駕車的感測器,包括鏡頭、光學雷達和毫米波雷達。隨後,輝達 GPU 會生成影像資料流,創造出各種測試環境和場景。類似 Carcraft 和 DRIVE 的平台在測試自駕車於複雜危險環境(如暴風雨和暴風雪,不同路面情況和眩光)下的表現時非常有用。教自動駕駛系統開車,新創公司也挺在行CB Insights 的 2019 年行動出遊趨勢報告,分析師指出,與其自建模擬平台或直接購買輝達 DRIVE 系統,一些汽車製造商會選擇新創公司的模擬服務。如下表所示,目前模擬技術在業界還不是顯學。▲ CB...
商湯科技(SenseTime)先前宣布,在日本茨城縣常總市設立的專用 AI 自動駕駛汽車研發基地正式落成,並命名為「AI 自動駕駛公園」。商湯科技將利用此基地開發智慧駕駛技術,並進行自動駕駛車輛測試,以促進智慧汽車產業發展。商湯科技「AI 自動駕駛公園」的常總市,位於茨城縣西南部,距離東京約 50 公里,鄰近日本科學研究中心築波科學城。研發基地的前身是一所市營駕駛學校,經改建後,將成為 AI 學習自動安全駕駛的試驗場地,以及商湯科技開發各種智慧駕駛技術的研發中心,該基地亦會對外開放大眾參觀。商湯科技副總裁、車載事業總經理兼日本公司總經理勞世竑表示,商湯將充分利用該測試場地,全力推進自動駕駛的開發和應用。商湯也會與社區緊密合作,期望此計畫能為常總市創造更多就業機會,並以科技為社會帶來貢獻。▲ 「AI 自動駕駛公園」由駕駛學校改建而成。常總市市長神達岳志表示,自動駕駛將會為未來交通體系帶來巨大變革,也將有助於解決地區之間的交通問題,並祝商湯早日取得技術成果,讓自駕車能安全行駛在常總市街上,當地市政府也會配合支持。2017 年,商湯與日本本田汽車簽署戰略合作協議,共同開發 L4 等級自動駕駛技術。目前搭載商湯自動駕駛技術的測試車輛,已經在日本、中國上海等多地進行道路測試。根據計畫,商湯科技將與本田合作,在 2025 年推出能在一般道路行駛的量產自駕車。(本文由 Unwire Pro 授權轉載;首圖來源:shutterstock)
中國一款「豬臉辨識」技術,只要用手機掃描豬臉,就能得到豬的「個資」,導入養豬業後,可避免出現「霸王豬」多吃多占的情形,確保弱勢豬群權益,推動養豬業精緻化管理。人類進入「刷臉」時代,相關應用也拓展到豬的世界。廣州日報報導,中國國家生豬產業技術體系首席科學家、中山大學教授陳瑤生去年在豬臉辨識技術發表會表示,該技術仍要面對很多難題,首先「人會乖乖在鏡頭前拍照,但豬不會」。除了豬的配合度低,陳瑤生指出,和人臉辨識最大的差別還有,人臉高度差異化,而豬是多胎生動物,長相十分相似。此外豬還受到生活環境、彼此打鬥等影響,把臉弄得髒兮兮,不易辨識。豬臉辨識可帶動養豬產業升級。以往中國的養豬戶只能進行粗放式管理,但實際上,每隻豬的進食偏好、食量、健康狀況等都不相同。要實現精緻化管理,首先得把牠們辨認出來。豬臉辨識,可讓問題獲得解決。中國電商業者京東 2018 年底推出「神農大腦」,這是京東農牧與中國農大、中國農科院等機構合作研發的智慧養殖技術。養殖計劃包括神農大腦(AI)、神農物聯網設備(IoT)、神農系統(SaaS),可做到智慧養豬。京東在這套智慧養豬解決方案中導入豬臉辨識技術,養殖場可以透過這項技術來觀測與記錄每隻豬的體重、生長、健康情況。京東表示,舉例來說,如果某隻豬出現進食異常,利用豬臉辨識演算法能夠快速關聯牠的生長資訊、免疫資訊、即時身體狀況等,透過神農大腦分析,能夠在第一時間找到異常原因並通知飼養員對症下藥。此外,對不同生長階段、個頭大小不同的豬隻,神農大腦透過控制飼餵機器人和智慧伸縮豬欄等設備,可實現飼餵量的精確控制,保證每頭豬的生長平衡,杜絕豬群中稱王稱霸、多吃多占等情況,讓受排擠的豬可以正常進食。(作者:陳家倫;首圖來源:shutterstock)延伸閱讀: 美國密西根大學開發「猴臉辨識」,這是瀕危靈長類動物的救星
科技巨頭在語音助理市場的「爭奪戰」愈演愈烈,領先者不一定能持續領先,新的一年,市場悄悄發生微妙的變化。剛結束的 CES 2019,明顯的感覺是亞馬遜 Alexa 存在感比以往低了很多。亞馬遜有兩個主要展位,一個展示門鈴 Ring,另一個展示亞馬遜鑰匙。這兩者均沒有看到亞馬遜有充足準備,現場也沒有重磅發表會。Ring 的 Door View Cam 門廊鏡頭沒有啟動,更沒有連線到應用程式。更要命的是,亞馬遜車庫鑰匙的展位也沒什麼動靜。CES 2019 召開前,亞馬遜裝置和服務進階副總裁 Dave Limp 對媒體表示,「用戶並不在意和關心拉斯維加斯大道的廣告活動」。言外之意,用戶對廣告「免疫力」提高,導致用戶在對廠商在市場的存在感方面,越來越遲鈍。相比之下,Google 在 CES 2019 大張旗鼓地宣傳。首先,Google 宣布即將大改造 Google Assistant,相關計畫正在推動。即便在其他公司展位,也可看到 Google 穿白色工作服、頭戴 Google 助理主題帽子的員工,透過第三方裝置提供的功能與訪客交談。與此同時,Google 智慧助理還推出新翻譯模式,正在拉斯維加斯、紐約、舊金山三地旅館試點營運。Google 步步逼近,當然亞馬遜 Alexa 的優勢較明顯。亞馬遜 Alexa 美國已成為家喻戶曉的名字,在智慧家居市場也擁有一席之地。根據 Techspot 資料顯示,全美市場亞馬遜占據 66% 市占率,超過 1 億台裝置安裝 Alexa;Google Home 排名第二,市占率 29%;蘋果 Home Pod 市占率 5%。表面上看,亞馬遜 Alexa 占據絕對優勢。但隨著競爭加劇,亞馬遜 Alexa 與 Google 助理的持續鬥爭比預期困難得多。因為市場智慧家居公司越來越希望涵蓋更多用戶層,產品可支援、相容 Alexa、Google 智慧助理甚至更多。Google 的重要優勢在於,Android 是智慧手機市場的「巨無霸」,高度壟斷市場。理論上,Google 助理完全可憑 Android 的不可替代性,進一步蠶食市占率。況且,廠商並沒有因 Alexa 領先而給予 Alexa 特殊優待。因此廠商的產品多半不敢把雞蛋放在同一個籃子裡,還是多同時支援 Alexa 與 Google 助理。 第一,智慧型終端機廠商對於不同語音助理態度曖昧,並沒有態度鮮明地表明立場。第二,不同語音助理在功能特點(資訊、交通、位置、指令等)各有優勢,暫時無法互相取代。例如,微軟側重情感辨識,Google 在搜尋端有大量資料積累,回答準確率方面更「聰明」;亞馬遜在電商領域資料積累豐富。第三,不同語音助理相容的背後,其實是巨頭生態資源相互利用。比如,蘋果 Siri、Google Assistant 整合了自家地圖、音樂庫等應用。所以,2019 年語音助理市場呈現一家獨大的局面可能性不大,共同分食市場為未來大趨勢。(本文由 雷鋒網 授權轉載;首圖來源:科技新報)延伸閱讀: Google Assistant 會成為下一個 Android 嗎? 與亞馬遜 Alexa 較勁?Google Assistant 內建裝置數將突破 10 億大關
愛立信 16 日發布消費者行為研究室的趨勢報告,呈現消費者對未來的想像。此報告是透過對 3400 萬名科技嘗鮮者的調查,包含 AI、VR、5G 等實際產品的使用者經驗,並且分析出最值得關注的體驗及應用,甚至是爭議的問題。 了解情緒的感知設備 報告指出,未來如語音助理等感知設備,將能夠進一步的理解人類的情感,透過臉部辨識及人工智慧等新技術,這些裝置將能更貼近人類的情感。且令人相當驚訝的是,在受調查的消費者中信任人工裝置比人類更能分享祕密的使用者有將近 45%,是信任人類的兩倍。 會吵架的虛擬助理 關於虛擬助理還有一個更有趣的想像,那就是使用不同的裝置將可能導致演算法之間的辯論。大部分的使用者認為,不同公司的語音助理會給予不同的建議,甚至可能會引發爭執。受訪者還認為,未來夫妻之間所使用的語音助理需要一定的相容性,才不會引發緊張的關係,且這樣的情境在 3 年後可能就會看見。 不知不覺收集數據 不僅是未來,此報告還透露了更多目前已遭遇的問題,有超過一半的使用者認為,目前使用的應用程式為了獲取利益而蒐集超過該功能所需的數據,如某些手機遊戲會同時要求麥克風、相機甚至是撥號功能。隨著數位化進展越加深入,相關議題將會不停地出現,所以大多數人認為,未來需要全球性個資保護規範。 強迫同意的隱私條款 而接下來更嚴重的問題是,這些要求還是合法的,因為可以強迫用戶同意這些條款,而同樣也有近半的用戶對此感到憤怒。這樣的現象令現有的隱私權規範形同虛設,並且令用戶對這些商業公司更加的不信任。有近 42% 的用戶表示,網路需要從根本上做出改變,才能再次成為對社會有益的力量。 技聯網 當然新興科技還是帶來不少便利,如 VR/AR 與網路的結合將能夠彌補網路盛行後,使用者與現實所形成的隔閡。未來包括人類的技能學習都能搬上網路,透過 VR/AR 裝置能更好的進行虛擬教學,例如請人從遠端協助修理家具水電或是指導烹飪,相關應用將會大量出現並成為技聯網(Internet of skills) 零接觸的消費 還有新興科技所帶來的自動化也將會改變消費習慣,協助處理日常瑣事,包含代繳水電瓦斯、自動補貨,甚至是幫忙報稅,有將近 70% 的人認為這在 3 年內就會普及。 懶惰的大腦 自動化是很重要的趨勢關鍵,但也可能會也有一些副作用,那就是人們開始懶得自己做決定。晚餐該吃什麼,以後都能交給語音助理決定,甚至什麼時候該看醫生、該理什麼髮型都可以向虛擬助理諮詢甚至默默的把事情都安排好。這樣的數位決策服務將會滲透進社會,有 34% 的人認為,這將會使人類失去批判性思考的能力。 促進節能 有趣的是,數位化的社會可能還會促進個人對環保節能的意識,透過對健康跟方便的監測,民眾將會對環境保護更加要求,且透過自動化以打造更好的生活環境。 虛擬分身 當然也有更加科幻的想像,有近 48% 的人認為,AI 及VR 技術的進步將能打造出惟妙惟肖的虛擬分身,能夠讓自己在不同地點出現,並處理不同的工作。但也有 46% 的人擔心這也可能會有冒用身分等違法行為的產生。不過仍有超過一半的人認為,數位分身將在 1 年內被普遍用於網路會議。...
臉部辨識技術已經被應用在許多領域,而在不久的將來,結合 AI 的掃描分析或許還可以成為標準體檢的一部分。近日美國公司 FDNA 便展示了如何運用演算法來協助辨識兒童遺傳性罕見疾病的臉部特徵,進而加速臨床診斷。就像其他的臉部辨識軟體一樣,FDNA 透過數據集來訓練他們的演算法,但不同的是 FDNA 所使用的都是患者的臉部圖片;透過自行開發的 Face2Gene App,FDNA 收集了超過 15 萬名患者的生理數據,並出於研究目的使用了其中涵蓋 200 種不同綜合病症的 1.7 萬張圖片來進行測試。而在研究中,FDNA 所開發的辨識軟體 DeepGestalt 表現都非常出色,其中在包含 92 種不同疾病 502 張圖片的識別上,DeepGestalt 在 10 個可能疾病的猜測診斷(top-10-accuracy)準確率上高達 91%。在一項更具挑戰性的實驗中,團隊提供給演算法患有努南氏症(Noonan Syndrome)患者的圖片,並要求其診斷出 5 種特定基因突變中哪一種可能導致個體的情況。軟體在這項上的準確度略微下降,但也仍有64% 的命中率,比起單純用猜測的 20% 準確率要好上許多。儘管有著如此的好表現,一些專家仍認為 DeepGestalt 並不是辨識罕見遺傳疾病的萬用工具。在發現特定基因突變的案例上,西奈山伊坎醫學院(ISMMS)教授和努南氏症專家 Bruce Gelb 博士認為,演算法的表現確實令他印象深刻,但基因檢測的確切答案還是會更為有用。由於 DeepGestalt 使用的是年幼兒童的有限數據集,而隨著年紀增長人們臉部特徵變得不那麼明顯,Gelb 認為 DeepGestalt 在識別年長者的疾病上將碰到困難,同時針對第三方研究也指出了 FDNA 工具存在的種族差異:高加索白人身上明顯比非洲臉孔上更為有效。FDNA似乎意識到了這些缺點,因此僅將 DeepGestalt 的潛力稱為「參考工具」──與其他 AI 軟體一樣,它可以幫助而不是取代人類診斷。牛津大學該領域的專家 Christoffer Nellaker 則認為,DeepGestalt 的真正價值,在於對其中一些超級罕見疾病來說,診斷過程可能需要很多年。「對於某些疾病來說,這將大大縮短診斷時間。而對於其他人來說,或許也增加了找到其他同樣患病者,進而找到新的療程或治療方針。」 Facial...
你可能聽過,河南的農村,非洲的城市,每個想像不到的地方,有大量的資料標記員。他們手動把圖片裡的花瓶和汽車框出來,標上「花瓶」和「汽車」文字。一段時間後,這些人把成千上萬張標記的圖片打包,傳送給遠在北京、上海甚至舊金山的 AI 公司。你可以將這些人稱為《幫人工智慧打工的人》。人工智慧發展迅速,大大小小的網路科技公司相繼開展研究,投入商用。然而訓練可用的 AI,需要大量準確標記好的圖片、影片等資料庫。正因為此,市場對資料標記的需求如此大,吸引「幫 AI 打工的人」爭相加入,不乏找不到工作的閒散人──畢竟這份工作只需動動滑鼠,用不了太多知識。但恐怕不久後,這些人將再次失業。上週,約翰‧霍普金斯大學、史丹佛大學和 Google 專家聯合發表一篇論文,介紹使用神經網路自動搜尋神經網路,投入影像分割研究,並取得重要進展:研究人員採用神經架構搜尋(Neural Architecture Seartch,NAS)技術設計一個神經架構(A),放任它自動搜尋/設計新的神經架構(B),投入影像語義分割(semantic image segmentation)工作。研究人員發現,自動搜尋出來的神經架構 B,在主流小型影像資料集,未經訓練就直接使用,表現竟超過人類設計、預先訓練好的模型。以往人們一直相信,設計 AI 需要大量知識和經驗,簡而言之就是需要人來設計。但現在,AI 設計的 AI,已經比人設計的 AI 更強。論文題目為《Auto-DeepLab: Hierarchical Neural Architecture Search for Semantic Image Segmentation》。研究人員將能自動搜尋(設計)神經架構的技術命名為 Auto-DeepLab。這個名字來自 DeepLab,Google 人工開發的影像語義分割技術。前面加上 Auto,意思是在 DeepLab 的基礎上,新技術可做到很大程度的自動化。論文署名作者中,兩人來自約翰‧霍普金斯大學,第一作者是 Chenxi Liu,曾在 Google 實習;4 人來自 Google;剩餘一人來自史丹佛大學,正是前 Google Cloud 首席科學家,電腦視覺學術和業界都知名的李飛飛。「本著 AutoML(註:Google 主導的 AI 計畫,將選擇演算法、超參數調整模型,建模更新和評估模型等工作自動化)和人工智慧普及化的精神,對不依賴專家經驗知識,自動設計神經網路架構,人們的興趣有顯著提升。」作者提到。在「AI 自動設計 AI」這件事上,Auto-DeepLab 有幾個較重要的新嘗試。首先,神經架構搜尋 NAS 技術是 AI 領域的新興物種,主要用於簡單的圖片分類。這篇論文裡,研究者首次嘗試將 NAS 投入高密度的圖片預測工作(也就是語義分割更複雜的高解析度圖片,如 Cityscapes 城市街景資料集、PASCAL VOC 2012 和 ADE20K 等資料集)。其次,電腦視覺領域的神經網路架構,通常分為內外兩層的兩級架構,自動化的神經架構設計往往只能設計內層,外層仍需人來設計和手調。而 Auto-DeepLab...

