利用人工智慧技術預測病人什麼時候會去世,聽起來就像反烏托邦科幻劇《黑鏡》才有的情節。但史丹佛大學研究人員認為,如果 AI 能做到這點,倒是一個很好的機會,因為可幫助醫生與病人更早進行必要的臨終對話。研究表明,由於治療慣性,很多醫生預測病人臨終期時傾向相對樂觀的估計,進而延遲了醫生與病人之間關於臨終選擇的艱難對話。醫生高估傾向也是人之常情。不過有些時候,這會導致病人在臨終期到醫院接受不必要、費用高昂、侵入性的治療,而不是在較舒適的環境走完生命旅程。一個資料顯示,如果可能,大約有 80% 的美國人更願意在家中度過最後的日子。史丹佛大學之前也在 arXiv 發表過一篇《改善臨終關懷與深度學習》(Improving Palliative Care with Deep Learning)論文。結果顯示,現實生活中有多達 60% 的美國人最終是在急性護理醫院接受治療的過程中結束生命。有鑑於病人的意願與臨終護理不符合,史丹佛大學研究人員便開始測試一種代替療法,即讓人工智慧幫助醫生完成篩檢新住院病人。如果一些病人已到需要臨終關懷服務的階段,醫生可以較早判斷,及時向臨終治療專家提出臨終關懷要求。「我們希望確保病人最後進入重症監護室之前,有機會告訴家人他們希望如何離開。」 史丹佛大學科學研究員 Kenneth Jung 說。所以「預測死亡」的 AI 演算法可能聽起來殘酷,但在研究人員眼中,它可讓人們面對死亡時不那麼狼狽。與此同時,透過 AI 判斷預測,也打破了傳統的臨終關懷服務模式。通常情況下,臨終治療專家需要等待主治醫生向他們提出要求,現在他們能準確辨識並有機會主動接觸需要這項服務的病人。據 IEEE Spectrum 介紹,史丹佛團隊的人工智慧演算法基於深度學習和醫療大數據。前者為流行的機器學習技術,利用神經網路進行資料過濾及學習;後者包括史丹佛醫院或 Lucile Packard 兒童醫院接收過的約 200 萬名成人和兒童患者的電子健康檔案資料。史丹佛人工智慧實驗室從事電腦科學研究的阿南德‧阿瓦提(Anand Avati)表示,「與精心設計的實驗研究相比,我們可以使用常規收集的資料建立一個全因死亡率的預測模型。現有資料的規模也能允許我們這樣做。」經過訓練後,演算法能提前 3~12 個月預測患者生命結束的時間。如果按照傳統方法,醫生會在 3 個月內預測,那樣的話留給臨終關懷服務的時間會很緊迫。據研究團隊稱,演算法得到一家機構審查委員會批准,結果證明這項技術並沒有人們想像的可怕。深度學習模型在幫助醫生篩選病人、找出他們接受臨終關懷治療的最佳時機方面,能有很大的作用。研究小組還強調,試點實驗的早期階段表明,對醫生來說,與重病患者進行臨終討論往往有益處,即便他們不太可能在預測的時間內死亡。此外研究人員也想透過實驗了解,臨終關懷治療團隊和在第一線護理病人的醫療團隊有什麼不同的表現,以及 AI 演算法預測是否能提高病人得到臨終關懷治療的比例。(本文由 36Kr 授權轉載;首圖來源:pixabay)延伸閱讀: 天主教廷同意:先計劃好病危時希望接受何種治療,以減少痛苦及家屬和醫療團隊間的衝突 預測流行偏好,時尚 AI 未來可望取代造型師 精準醫療新突破──新穎基因標記預測藥物抗體反應的發生 在臨床症狀出現前,這個 AI 可提前 9 年預測老年癡呆症 AI 可預測自殺風險,且準確度驚人
2016 年 12 月發表的「Amazon Go」購物技術確定將於 2018 年 1 月 22 日於美國華盛頓州西雅圖市第七大道正式對大眾開放,這家實體商店的營業時間為每週一至週五的上午 7 時至晚間 9 時。Amazon Go 團隊目前對外開放 41 個職缺,當中包括電腦視覺、機器學習等相關領域專業人才。recode.net 21 日報導,Amazon Go 技術團隊負責人 Dilip Kumar 日前受訪時不願臆測這項購物技術未來是否會對外授權,僅表示現階段團隊的任務就是聚焦在這家店面。Amazon Go 原定於 2017 年初開放居住在西雅圖的亞馬遜註冊會員使用。Kumar 表示,原本的規畫是透過對外開放讓演算法去學習客戶行為,但沒想到亞馬遜(Amazon.com)員工的反應相當踴躍,因此才沒有趕著讓大眾參與測試。「Amazon Go」透過電腦視覺、深度學習程式碼以及感測器融合等自駕車等級技術就能即時將消費者取走的東西記錄到虛擬購物車當中。假設消費者改變心意將東西放回架上,購物紀錄也能馬上取消。一旦走出店外,亞馬遜立刻就會透過手機發出帳單明細。換言之,消費者不用再排隊等候結帳。(本文由 MoneyDJ新聞 授權轉載;首圖來源:Amazon)延伸閱讀: 客人一多就應付不來!Amazon Go 同時追蹤人數待突破
日本電子產品巨擘 Sony 公司 11 日在東京發表新一代寵物機器狗 aibo,具備人工智慧(AI)技術和網路連線功能,每隻要價近 3,000 美元(約新台幣 8 萬 8,800 元),即日起率先在日本開賣。法新社報導,新款 aibo 如小狗般大,身長 30 公分,擁有象牙白的光滑外殼。在 Sony Corp. 舉行的「慶生」發表會上,aibo 從繭狀盒子取出後,開始搖頭擺尾,宛如自小睡甦醒。新款 aibo 的耳朵也能擺動,眼睛則是由最先進且能發光的顯示器所組成,能夠表達不同的情緒。這隻機器狗還搭載一系列感測器、攝影機和麥克風。使用者也能夠透過智慧手機自遠端和 aibo 互動,甚至從辦公室訓練在家的機器狗,等到主人回家時就能驗收結果。新一代 aibo 會透過與人類互動發展出「性格」,它並非總是順從,會對對它好的人表現友善。由於這款機器狗的「學習」成果存放在雲端,因此就算硬體損壞,它的「性格」仍然完整保存。aibo 所拍攝的照片也能透過網路分享。不過,想要擁有一隻技術如此先進的寵物機器狗,代價不菲。包含數據儲存等軟體服務,綁約 3 年每隻 aibo 售價將近 3,000 美元。日經中文網報導,Sony 已於 9 日在美國拉斯維加斯舉行的消費電子展(CES)上發表新一代 aibo,訂於 11 日在日本啟售。Sony 社長平井一夫 9 日受訪時表示,他們將先滿足新款 aibo 在日本市場的需求,待產能提高和供應系統穩定,將考慮在海外市場販售。Sony 1999 年 6 月推出第一代 aibo,儘管一隻要價 25 萬日圓(以當時匯價計算約新台幣 6 萬 6,800 元),首批 3,000...
新加坡廣告商 AdAsia Holdings 為擴大組織規模並推出全新服務,11 日由聯合創辦人暨執行長十河宏輔(Kosuke Sogo)宣布成立母集團「AnyMind Group」,並推出 B2B 的 AI 人才招募平台「TalentMind」,以及微網紅與品牌合作的平台「CastingAsia Marketplace」。TalentMind:利用求職者的社群媒體與個人履歷進行 AI 分析與媒合TalentMind 屬於 B2B 的人才招募工具,企業可透過具備 AI(Artificial Intelligence,人工智慧)技術的線上平台,藉由自然語言處理(natural language processing,NLP)、個人檔案分析、機器學習(Machine Learning)等技術來分析與篩選求職者,同時也協助求職者媒合合適的公司。求職者在 TalentMind 開設個人檔案後,企業與人資單位可利用求職者的社群媒體(目前先以 Facebook 為主,是經求職者同意向平台公開的資訊,其中包括貼文內容、按了哪些讚、與哪些人成為朋友等)、個人履歷、平台問卷等資料數據,藉由 AI 技術進一步了解求職者的性格特徵、能力以及與職缺的媒合程度。同時,企業與人資單位可利用 TalentMind 的演算法,分析組織能力架構,並根據求職者回應企業接受錄取的機率、現有的組織文化加上優秀員工的特質,即時優化人才招募模式。這些招聘模式將會用作求職者與企業配對,讓業主尋找到最適合其招募需求以及符合組織文化的人選。由於 TalentMind 是向企業推廣的人才招募工具,視企業規模大小來收取不同的月費。十河宏輔向《科技新報》表示,公司創立至今員工快速增長,人才招募過程中發現存在改善與優化的空間,例如某一職缺有許多人應徵,如何從上百封求職信挑選出合適的人才是人資單位不斷面對的課題。該公司的人力資源部已將 TalentMind 整合進人才招募流程逾 6 個月的時間,並利用此平台為新的業務招募全新團隊。CastingAsia:微網紅與品牌合作的 CastingAsia Marketplace 平台CastingAsia 是 AnyMind Group 旗下同樣以 AI 為發展核心、提供市場行銷方案的科技公司,推出專為網紅與品牌業主設計的全新合作平台 CastingAsia Marketplace。CastingAsia 業務負責人林信吾(Shingo Hayashi)向《科技新報》表示,現在網紅經濟當道,知名品牌常具有大筆行銷預算卻不知如何與網紅、甚至是人氣規模較小的微網紅(micro-influencer)合作,也沒有全面的數據來分析網紅的影響力。於是 CastingAsia Marketplace 平台為網紅與品牌提供商業媒合與成效分析,共同發展網紅市場行銷(Influencer Marketing)。CastingAsia 目前已與超過一萬名網紅與微網紅合作,計劃在今年底擴大至五萬名。成立母集團 AnyMind...
工研院智慧視覺系統機器人在 CES 開展首日即造成轟動,吸引美國 ABC News、英國 BBC 及美聯社在開展首日熱烈報導,也吸引北美拼字冠軍 Will Anderson 來體驗!工研院在經濟部技術處科技專案支持下,以 8 項 AI 創新研發成果搶進 CES 首度設立的 AI 專區展出,在拉斯維加斯展場透過情境式的互動體驗展覽,展現工研院整合大數據及 AI 人工智慧研發的智能系統整合實力。BBC 更以臉書直播與智慧視覺系統機器人玩拼字比賽,吸引近 10 萬粉絲在線上觀看,網友深感驚豔,採訪記者 Dave Lee 盛讚「這大概是 CES 展覽這麼多展項中最吸睛的展出」,賽中他還邀請粉絲人數高達四千多萬名的 BBC News 臉書網友們一起提供即時拼字建議,引起熱烈討論與互動,BBC 也將在節目中播出這段採訪。被智慧視覺系統機器人吸引來體驗的北美拼字大賽冠軍 Will Anderson 表示,機器人表現十分令他驚豔,和真人對賽不同的是,機器人具有強大的字庫,移動跟決定的速度超乎預期地快速及精準,顯見工研院的人工智慧實力已相當成熟。工研院展出的智慧伴眠機 Genki Box,因為其特殊的「元氣」日文發音,吸引不少日本企業關注,其中日本花王公司的資深主管,還前後跑了兩次,洽談跟智慧伴眠機合作開發助眠產品。工研院在今年 CES 創新獎中,從數百件產品中脫穎而出拿下兩個獎項,他表示此獎由外部工程師和設計師作為評審,評選出最酷、最具創新、並有助產業未來發展的產品,恭喜工研院兩項技術成為 CES 創新獎得主。▲ 工研院獲得2018 CES 創新獎的隨手型智慧蔬果農藥檢測器。工研院副院長劉軍廷表示,在這波消費者驅動的數位浪潮中,產業能否成功的進行數位轉型攸關未來榮枯,其中一個關鍵因素是系統層級的破壞式創新。這個系統層級的破壞式創新有幾個要素:從消費者需求出發、深度結合幾個不同的領域專業(domain knowledge)、架構出一個整體的系統解決方案、以及這個系統架構的精髓在於將數位資料轉化成為服務個別消費者的需求的破壞式創新功能。其中可以包含使用大數據分析、人工智慧、及創新應用。眾所周知台灣具有很強的硬體製造,未來可結合軟硬體發展出應用人工智慧的差異化服務;因此,工研院將整合人工智慧、大數據、及軟硬體技術,形成一個可以靈活利用的創新環境平台,在這個開放式的創新服務平台基礎上,開發各個智能系統協助產業轉型,並將台灣製造的優勢延伸至服務加值,從單一應用延伸到跨業整合,發展跨領域的軟硬整合服務,產生破壞式創新功能的價值。▲ DeepLook 雲端智慧影像分析系統可快速將系統中大量的人流、車流進行分類,警方則可透過縮小選擇範圍,提升效率。劉軍廷進一步表示,工研院在 CES 展示的成果呈現出令人興奮的全新系統架構、並且應用人工智慧、以及結合跨不同領域專業的大數據分析。這八項人工智慧系統架構成果更難能可貴的成功進駐 CES 今年首度設立的 AI 專區,包括剛獲得 2018 CES...
5 年內聘 200 位 AI 研發人才,微軟這次大手筆在台灣設立 AI 研發中心,掌管的舵手是個低調的中年台灣人。他智商高達 165,曾經高中聯考落榜,卻在微軟總部大鳴大放,掌管百人研發團隊。這個隱藏在台灣軟總部多年的軟體怪才,未來將掌舵這座台灣最高階的 AI 研發中心,他打算怎麼做?1 月 10 日,微軟大動作宣布在台灣成立「微軟 AI 研發中心」,將在 5 年內招募 200 位 AI 研發團隊。掌舵百名微軟未來 AI 研發尖兵的舵手,是一位高中落榜、工專畢業赴美讀書,卻一路做到微軟亞洲軟體工程院副院長層級的台灣人。位在信義計畫區大樓的微軟辦公室 15 樓,一般微軟業務、行銷、行政人員的卡刷不進去,這裡是微軟在台灣研發工程師的重地,微軟亞洲軟體工程院研發副院長張仁炯的座位就隱藏在這裡。拿到張仁炯的新名片,上頭寫著新職稱:「微軟台灣 AI 研發中心執行長」。沒錯,他就是這座 AI 研發中心實際的舵手。張仁炯在微軟超過 20 年,位階極高,直接向美國微軟總部報告,權力直通總部。曾在美國微軟總部, 一路研發 Office 相關產品,都是微軟營收貢獻的大本營。2004 年他回到出生地台灣,掌理台灣和中國兩地的研發,從基層工程師做到帶領百人軟體工程團隊。「我平常很低調,」極少接受媒體專訪的張仁炯坦言,自己是微軟台北辦公室唯一穿短褲、柏肯鞋上班的工程師。但參加《天下》活動時,卻是西裝筆挺。「為了這座研發中心,最近我穿西裝打領帶的次數,大概是過去 10 年的總和,」他苦笑著說。但這位 AI 研發中心的舵手,打破傳統工程師寡言、難相處的刻板阿宅印象。他自己的人生十分傳奇,說話直爽但溝通能力強。未來要對內掌管研發與人才培育、對外要產業合作的多功能的研發中心,但工程師出身的張仁炯卻顯得老神在在。「他是一個十分有創新精神的人,執行力非常高,另外他對台灣的知識很深,能為這座中心帶入很多的資源和創新能量。來接掌這座中心,和在地夥伴建立關係,他是對的人選,」和張仁炯共事多年,微軟全球資深副總裁暨人工智慧核心團隊負責人古卓倫對《天下》記者表示。跳 tone 的人生經歷 擁有精準的識人功力研究張仁炯的背景,很驚訝地發現,完全不同於許多外商公司高階研發主管總是出身台清交,再留學國外名校的清一色背景。張仁炯工專畢業才出國念書的背景顯得很「跳 tone」。但這種跳 tone,或許就是古卓倫說的,張仁炯能在區域高階人才眾多的狀況下脫穎而出的原因。張仁炯在台灣出生長大,念仁愛國中資優班的他,智商高達 165。但是在高中聯考時,數學科選擇題規定「甲乙丙丁」,張仁炯卻有莫名的堅持,認為考數學為何要用「甲乙丙丁」,硬是用「1,2,3,4」作答。結果本來可以上師大附中的成績,卻因此落榜,最後進入新埔工專,當完兵才到美國繼續深造。工專時班上聚集一群叛逆的同學,加上當兵在軍中與許多不同背景的人相處,張仁炯培養了很厲害的「特異功能」──看人。因此進入微軟後,張仁炯除了傑出軟體工程師的角色, 「主業」之外,他有另一個特別的副業──「As Appropriate Interviewer, AA Interviewer」。這是需要經過微軟認證的召聘評審官角色。每一次招聘,他就是最後把關的人,以確保公司找到的人才,除了具備應有的技術能力之外,必須是符合微軟企業文化和組織精神的人才。有一次他飛到中國微軟,面試一個已經進入第 7 輪面試的應徵者。他評估之後,投下反對票,推翻其他微軟主管的決定,因為一個小時的面試過程,他發現對方有嚴重的情緒問題。「人資非常生氣不解,覺得我浪費時間,但我請他們去查,發現這位受試者過去真的有暴力傾向的紀錄,」張仁炯回憶。也因為他看人精準,在公司內博得「張天師」的稱號。他面試看人的功力,還被台科大學務長找去擔任「領導書院」的面試官,由張仁炯親自一個一個面試。如今這位有著看人特異功能的研發高手,要為台灣 AI 研發中心,挑選百位研發精兵。「台灣想發展...
試著想像一下,電腦可以讀取你在看著什麼、或想著什麼的情況,雖然聽起來非常科幻,但在日本團隊的研究下,這種像是電影劇情的未來正逐漸成真。 2017 年 12 月底時,日本京都大學神谷研究室 4 位科學家公布了他們研究人工智慧(AI)的結果,雖然還只是起步,但他們確實開發出讓 AI 學會了「解碼」人們腦波的新技術。團隊創造的 AI 在讀取人的腦波後,根據對象腦波中顯示的影像,便能創造出相應但較為模糊的圖片,這種從人類大腦活動中可視化感知過程的技術,團隊將其稱呼為「深度圖像重建」(deep image reconstruction)。▲ 一旦大腦波動被掃描,電腦便會反向解碼這些訊息,進而產生一個可視化的主體圖片,圖片顯示 AI 解讀並重建資訊的過程。神谷之康(Yukiyasu Kamitani)教授向 CNBC 表示,團隊一直都在研究如何透過觀察人的大腦活動,來重建、重現人們所看到影像的方法,但在過去研究中,團隊曾假設一個圖片是由像素(pixels)或簡單形狀組成的,而現在他們已經知道人腦的運作方式並非如此。「現在我們已經知道,人們大腦處理視覺訊息的方式,是分層次的提取不同等級的特徵,或是不同複雜程度的組成部分。」透過理解這一點,研究中建立的神經網路或 AI 模型將可以用來代表大腦分層結構處理的情況,進而讓 AI 能更好的去偵測、理解大腦所見到的物體,而不僅僅是像過去一樣只能以二進制像素表示。在深度圖像重建的演算法中,AI 會先載入隨機圖片,並開始根據腦波解碼中讀取到的特徵逐漸去改變像素值。除了深度神經網路(DNN)和機器學習領域的圖像生成技術,團隊還用了深度生成網路(Deep Generator Network,DGN)來確保圖片看起來自然。▲▼ 首圖為只使用 DNN 解碼腦波的情況,上圖則是運用 DNN 與隨機圖片,下圖則是運用 DNN、DGN 與隨機圖片。在研究期間,團隊分別針對自然景象、人造幾何形狀和字母進行了測試。在一些情況中,受試者在觀看圖片時,電腦便對腦波進行掃描,而在其他情況中,電腦則是在受試者回想剛剛展示的圖片時進行解析。與過去的方法不同,即使人們只是回憶起圖片,深度圖像重建 AI 也能夠試著建構出相對應可視化圖片來,但由於大腦活化不足,AI 系統在這種情況下的分析也必須花上更長一些時間。透過不斷的猜測腦波數據對應的形象化,AI 從眾多的數據中持續學習。嚴格來說,深度圖像重建的 AI 並不能真正「看見」人的思想,但它確實知道當你在想什麼時,腦波是什麼樣子的。儘管從圖片看來,目前深度圖像重建 AI 讀取的效果仍十分有限,但隨著精準度不斷改良,這項技術的潛在應用價值將令人難以想像。▲ 相較自然圖像,字母的解碼已經幾乎能夠辨識(沒有運用 DGN 的情況)。運用這種可視化技術,人們或許將能簡單透過想像來繪畫或製作藝術,就連夢境也可能可以透過電腦來形象化。對於一些飽受幻覺困擾的精神疾病患者來說,也能夠得到更多相對應的外在協助。神谷之康教授認為,隨著 AI 技術和腦機介面發展,有朝一日,或許純粹透過意念和想像的溝通將有望實現。 Japanese scientists just used AI to read minds and...
Zocdoc 首席執行長 Oliver Kharraz 期望機器學習能實現許多臨床功能。對醫生來說,這意味著情商將變得越來越重要。據 CNBC 報導,11 日,Kharraz 在舊金山舉行的摩根大通醫療會議接受採訪時說:「未來的醫生接受的培訓將類似演員。Zocdoc 基於網路軟體,可讓消費者進行線上醫療預約。」卡拉茲本人也是一名訓練有素的醫生。他說,隨著機器可分析掃描結果來診斷醫療狀況,從醫者需要的素質也會發生轉變。到那時,一名成功的醫生需要同情心和傾聽的能力。Kharraz 舉了一個案例研究的例子。一位同事告訴他,曾有一位罹患肺炎的病人,接受一連串測試後仍未診斷出問題根源。與病人在一起的時候,醫生發現這個人經常吞嚥口香糖卻沒有嘔吐反射,導致口香糖困在肺裡。Kharraz 說,電腦無法解決這類問題。他說:「機器學習對需要大型數據集的重複性工作來說非常有用。」除了 Kharraz 之外,還有很多技術專家也認為機器學習將導致醫療行業的大革命。風險投資人 Vinod Khosla 預測,放射科醫師將在 5 年內被機器取代。分析人士預計,到 2024 年,人工智慧醫療保健市場將超過 100 億美元。Zocdoc 2017 年 8 月最後一輪風險投資後價值 18 億美元,2017 年已達到 600 萬用戶。(本文由 36Kr 授權轉載;首圖來源:shutterstock)
之所以稱為科技界的風向球,是因為每年 CES 展,人們都能或多或少看到目前最流行的科技產品。今年 CES,除了傳統 3C 數位類消費電子產品,人工智慧成了 CES 主旋律,而在人工智慧大題目中,機器人又是最流行的產品。拉斯維加斯會展中心的南館,匯聚了多家機器人廠商,其中多數都來自中國,甚至有人戲稱,本屆 CES 其實是「深交會」,雖然如此,有些海外廠商依然出色。以下為大家帶來一些 CES 2018 機器人展區現場情況,看看今年 CES 有哪些流行的機器人(包括無人機)產品。打乒乓球的機器人日本企業歐姆龍(Omron)在本次 CES 可謂賺足了眼球,他們展出一台可與真人對戰的 AI 乒乓球機器人──Forpheus。我們在現場看了一場真人 vs. 機器人的乒乓球戰,從對戰可看出,這台機器人實力不俗,幾輪下來,與其對戰的人類選手(當然,都是業餘選手)從未勝利。據了解,這個機器人 2014 年初代就已成型,經歷幾次技術更新,如今是第四代。Forpheus 使用 AI 演算法,加上感測器能精確探測到球的執行速度和旋轉速度,所以能精準預測乒乓球的路徑,且在千分之一秒內反應。此外,Forpheus 還增加了人體辨識功能,可辨識對手的動作,並借助機器學習技術分析球的軌跡,這樣,AI 就可判斷對手的實力,並將機器人水準調整至與對手旗鼓相當,陪人類練球。據歐姆龍介紹,之前 Forpheus 曾獲「首個機器人乒乓球教練」的金氏世界紀錄認證。四足四輪機器人波士頓動力的機器人在 2017 年給予人們足夠的震撼,但是身為機器,完全模仿人並不是太好的選擇,機器要把機器的「可塑性」特點發揮到極致,才能完成更多工作。本次 CES,美國機器人公司 Motiv Robotics 推出一款「四足四輪」的救援機器人 RoboMantis。顧名思義,該機器人為四足架構,與普通四足不同的是,RoboMantis 每條腿都有輪子,這設計能滿足多種地形的工作執行。比如崎嶇不平的道路,四足機器人就可用四條腿走路,平坦的道路就用輪子驅動奔跑。不過現場向工作人員了解,這款機器人用輪子跑的速度並不快,時速只有約 25~30 英里(40~48 公里),當然相對人類的速度來說,算是很快的。身為一款實用性機器人,RoboMantis 頭上裝了一條機械臂,這條機械臂是自訂的,據官方稱,RoboMantis 機器人可滿足農業、救援等多樣化的需求。中國機器人?南韓機器人?前面說過本屆 CES 多數廠商來自中國,但是在南館機器人區裡,卻能發現不少看上去像中國產品,仔細一看卻是南韓貨。比如南韓 Robotis 公司展出教育變成類機器人和人形機器人,無論形態還是功能來看,都像一兩年前中國機器人「風口」時期深圳南山創業公司的產品。另一家同為南韓公司的 FUTUREROBOT 產品,基本上延續了中國服務機器人的所有風格,輪子走路、電子臉、大螢幕……不過不一定說是跟風中國產品,而是從一定程度上能看出,類似產品同質化之嚴重,以致南韓乃至亞洲的機器人無論長相還是用途,都有些趨於統一,這對目前機器人產業本身的發展也不是件好事。無人機又來早在 2017 年 9 月,雷鋒網參加柏林舉行的 IFA 展時,一篇名為《消失的無人機》報導當時...
關心圖像辨識研究的朋友可能知道,為了評估和改進 AI 的辨識能力,研究人員會設計一些「對抗性」圖像,主要被用來欺騙機器視覺系統。之前就介紹過麻省理工大學一項研究,他們用演算法生成「對抗性」圖像,並加到 3D 列印模型上,之後用這些模型去騙 Google 的圖像分類 AI。測試的結果有多誇張呢?3D 列印的烏龜玩具被認成了步槍,AI 眼中的棒球竟然是一杯濃縮咖啡。(Source:labsix)AI 對 3D 物品的錯認足以引起我們對諸如自動駕駛、智慧監控等系統的擔憂,因為這些都很依賴 AI 的圖像辨識能力。如果當下正受追捧的人臉辨識技術也被「對抗性」圖像攻破,那麼我們日常生活類似刷臉支付、刷臉過檢等行為,豈不是有巨大的安全風險?新的研究證明,這份擔心非常有必要。因為現在,能欺騙臉部辨識系統的眼鏡已經出現了。▲ 與一些浮誇的偽裝面具不同,它們看上去還比較普通。(Source:Carnegie Mellon University)這副反臉部辨識眼鏡由美國卡內基美隆大學和北卡羅萊納大學的研究人員合作開發,一共有 5 種。使用者戴上眼鏡後,就能成功騙過臉部辨識系統的「眼睛」。▲ 一名男性在佩戴後被辨認成女演員蜜拉‧喬娃維琪,而他的女同事則成功扮演一個中東男人。(Source:Carnegie Mellon University)研究人員兼聯合開發者 Mahmood Sharif 接受 Vice 採訪時說,眼鏡設計用來誤導基於神經網路學習的臉部辨識系統,它成功騙過 Face++ 的機率為 90%。Face++ 是一款專注人臉檢測、分析和辨識的軟體。該臉部辨識軟體的神經網路是基於對人臉像素顏色的分析來猜測一個人的身分,被測者臉上任何輕微變化都會影響整個辨識系統。Sharif 表示,他們透過最佳化演算法找到可躲過系統辨識的眼鏡顏色,並且保證顏色平滑過渡(類似於自然圖像)。這些圖案會擾亂臉部辨識系統的感知,影響 AI 讀取的準確性。▲ 研究人員透露,這種眼鏡可由用戶自行列印。(Source:Carnegie Mellon University)目前,這些反臉部辨識眼鏡已針對 VGG 和 OpenFace 深度神經網路系統進行測試,結果顯示欺騙成功。我們的研究表明,基於深度神經網路的臉部辨識是一種特殊的演算法,可被一個不做任何改變只是簡單戴副眼鏡的人誤導。也就是說,臉部辨識系統非常容易受到攻擊,試想如果反臉部辨識眼鏡被犯罪分子戴著,就能輕易逃過公共系統監控,或以別人的身分進入某家公司。不過,對這副眼鏡的評價,很大程度上也取決於我們如何看待臉部辨識技術。一方面,注重隱私的人會對眼鏡的前景感到興奮,因為它可以幫我們繞過公共場合的眾多監控。一個數據是,如果我們生活在一個城市地區,平均每天會被拍到 70 次,且還可被臉部辨識技術認出來。另一方面,臉部辨識也經常用來保障我們的安全,比如機場正大量應用人臉辨識系統進行安檢,以辨識潛在的危險人物。出於安全考慮,兩所大學的研究人員已將研究結果遞送給自己國家的運輸安全管理局(TSA),並建議 TSA 考慮未來安檢時,檢查乘客身上看似普通的物品,比如眼鏡和珠寶等。因為這些小玩意兒可用來當作欺騙臉部辨識系統的工具。「隨著社會對臉部辨識技術的依賴越來越強,我們有時會忘記它可能失敗。在安全性要求高的場合部署深度神經網路,我們需要更理解如何讓人臉辨識在惡意干擾前變得更強大。」研究人員在論文中寫道。論文最近發表在 arxiv.org,題目是《對抗性生成網路:對最先進人臉辨識技術的神經網路進行攻擊》。(本文由 36Kr 授權轉載;首圖來源:shutterstock)