繼 6 月底偕新創專案「Deeplearning.ai」回歸人工智慧圈後,深度學習領域權威吳恩達再丟出一大目標:利用 Coursera 開放課程培訓出百萬名 AI 專家,落實他對人工智慧普及的願景。吳恩達 2011 年在 Google 利用深度學習理論(Deep Learning)建立了 Google Brain,為全球最大規模的虛擬神經網路;2014 年加入百度,任職其間讓百度在語音辨識、無人駕駛、圖像辨識等方面都取得許多技術突破;2017 年 3 月 20 日宣布自百度辭職後時隔 3 個月,帶著一個名叫「Deeplearning.ai̍」的專案回歸人工智慧圈,當時各界對吳恩達新業務的定位眾說紛紜,最可信的說法之一是實現他之前的允諾:讓人工智慧盡可能普及。如今,吳恩達在接受 MIT Technology Riview 編輯 Will Knight 訪問後給出這個答案:培訓百萬名人工智慧專家是首要目標。他說,領航的科技企業已利用人工智慧建構出更優化的網路搜尋引擎、線上廣告、地圖指引、支付系統等,並創造出更龐大的收益,但一家公司無法囊括所有工作,唯有讓人們擁有人工智慧的知識並試著使用工具,才是節省人力時間、發揮更高效率的解決之道。因此,他打算推出的第一個計畫就是透過 Coursera 開出深度學習領域的課程,將於 8 月 15 日起開放,稍早前吳恩達已在推特上為該系列課程推文。 Want to break into AI? You can learn Deep Learning from new deeplearning.ai courses on Coursera: https://t.co/tzc4Ci2N9C — Andrew Ng (@AndrewYNg)...
機器學習為 AI 人工智慧發展重點領域,而深度學習做為機器學習其中一環,近年來應用於影像辨識發展最為快速且突破最大。Google 研究團隊產品經理、醫學博士彭浩怡(Lily Peng)在 8 月 8 日活動中,說明 Google 深度學習應用於醫療領域的成果,尤其在診斷糖尿病視網膜病變、癌症轉移等方面已有進展。深度學習網路提升影像辨識能力彭浩怡指出,深度學習隨著真實數據資料量大增、運算能力更為強化,近五年來成效相當顯著,而神經網路也獲得廣泛應用,在解決視覺、語言辨識與理解等問題上,比其他方法的表現更好。他提到,深度神經網路(Deep Neural Network,DNN)的影像辨識精準度不斷提升,2015 年更已達到與人類相同的影像辨識水準。▲ 深度神經網路的影像辨識準確性,已於 2015 年達到人類辨識水準從過去所採用的傳統電腦視覺來看,若要建構熊貓分類器,必須要經過「特徵工程」(feature engineering)過程,得手動輸入所有熊貓相關特徵,不僅分類費時且成效不高;如今透過卷積神經網路(Convolutional Neural Network,CNN)可大幅提高影像辨識效率,只要提供電腦大量熊貓及非熊貓圖片,各約 5,000 張以上愈多愈好,卷積神經網路會自行學習辨識熊貓。相較於過去傳統電腦視覺著重特徵工程,卷積神經網路更偏重在準備資料,進行模型架構(Model architecture)及數據優化(Numerical Optimization)兩方面。醫療影像辨識應用深度學習在影像辨識領域應用相當廣泛,彭浩怡和研究團隊運用 Google 自家開源機器學習系統 TensorFlow 架構進行機器學習研究,進一步將技術應用在醫療領域判讀醫學成像,包括診斷糖尿病視網膜病變、乳腺癌腫瘤轉移等。彭浩怡指出,糖尿病視網膜病變是全球失明人數攀升的主因,目前有 4.1 億糖尿病患者都有視網膜病變的風險,但其實這是可以預防的。視網膜眼底經特殊相機拍攝後,必須由專業眼科醫生判讀影像加以分級,不過,有些地區如印度因眼科醫生嚴重短缺,加上其他因素導致 45 %病患在診斷前已失明,對於可全面預防的病變來說,這樣的結果著實令人沮喪。身為醫生的彭浩怡為改善現狀,與研究團隊著手研究如何將深度學習應用於視網膜影像判讀,並與印度當地夥伴溝通合作。Google 研究團隊採用 26 層卷積神經網路,創建出具有 12.8 萬張視網膜眼底影像的開發數據集(Dataset),透過 54 名專業眼科醫生判讀分級並建立模型,進而訓練模型判讀視網膜眼底影像,達到如同專業眼科醫生般判讀視網膜病變等級的能力;接著也進一步開發辨識工具,只要將圖像拖曳至系統便能得出診斷結果,現正於印度當地醫院進行臨床實驗。目前試驗結果顯示,演算法判斷結果與專業眼科醫生的診斷結果呈高度一致性。 ▲ 以深度神經網路判讀視網膜眼底圖像,建立模型後開發辨識工具 Google 深度學習另一應用是判讀癌症組織切片。彭浩怡表示判讀病理切片並不容易,以乳腺癌切片為例,每 12 人當中就有 1 人可能被誤診,其他癌症也有遭誤診的情況,這是因為病理切片上可見的生物組織資訊龐雜,每個切片在 40 倍放大後約有 100 億畫素(10 Gigapixels),相當於 1,000...
「圍棋上帝」AlphaGo 在戰勝柯潔之後便宣布退役,成為圍棋界難以逾越的一座高峰。而其締造者 DeepMind 公司早就為人工智慧準備了下一個目標:《星海爭霸 II》(StarCraft II)。《星海爭霸 II》是由暴雪娛樂(Blizzard Entertainment)在 2010 年推出的即時戰略遊戲,遊戲劇情主要講述在遙遠未來,一場圍繞銀河系中心的種族之戰。由於遊戲極其考驗玩家對資源的營運策略,因此被視為 AI 研究的突破點之一。DeepMind 科學家奧利奧爾‧溫雅爾斯(Oriol Vinyals)曾是頂級《星海爭霸》玩家之一,他曾提出這個觀點:玩《星海爭霸》的 AI 需要有效利用記憶力,能進行長期戰略規劃,並根據新資訊不斷調整。如果我們開發的 AI 系統能掌握如此複雜多變的技能,那麼最終這些技術也將用於服務現實世界。因此,早在 2016 年 11 月,DeepMind 就宣布與暴雪娛樂合作,將針對《星海爭霸 II》展開一連串研究實驗。到了 2017 年 8 月 9 日,暴雪與 DeepMind 公開這個專案的初步研究成果,將開放《星海爭霸 2》為 AI 研究環境。這個人工智慧環境包將包括: 在遊戲中為開發者和研究員加入人工智慧 API,並且首次支援 Linux 環境。 新增一個匿名遊戲重播資料程式庫,並且在未來幾週裡,遊戲重播資料將從 6.5 萬份增加到 50 萬份。 加入 DeepMind 開源工具集 PySC2,讓研究員可以輕鬆呼叫暴雪底層的功能 API。 新增一系列 RL 迷你遊戲,讓研究員測試 AI 在特定工作下的效能。 ▲...
長期以來,當品牌商在社群媒體上被提及時,搜尋熱度往往也會隨之增加。但品牌商一直缺乏一種可讓受眾以簡單方式搜尋 Logo 或產品圖片的能力。原 SaaS 巨頭 Salesforce 最新推出的 Einstein AI 工作室,就是想為品牌商解決這一難題。據外媒報導,Salesforce 9 日推出 Einstein Vision Social Studio,可為行銷人員提供一種在社群媒體上搜尋和品牌有關圖片的功能。產品運用 Einstein 專案的 AI 演算法,包括 Einstein 影像分類和影像辨識技術。同時還使用視覺搜尋、品牌偵測及產品辨識等功能,利用 Einstein 目標偵測可辨識影像中的對象,其中還包括對象的類別與數量。Social Studio 是 Salesforce 今年整合 Einstein 專案的幾個領域之一,在社群媒體分析方面,影像辨識特別有價值。據 Deloitte 預測,去年全球共在網上分享和儲存 2.5 兆張照片。外媒表示,Einstein Vision 社群工作室目前可用在 Twitter,後期會逐漸擴及其他社群平台。產品經過培訓後,可為行銷人員提供 4 種類別的影像程式庫,可辨識 200 萬個品牌 Logo、60 個使用場域(如機場等)、200 種食物和 1 千個物體。這些影像程式庫足以滿足許多公司的需求。不過,目前產品第一版還無法提供自訂功能。如果有品牌商 Logo 或物品未被影像資料庫涵蓋,需要等高階版出來才能自訂內容。Salesforce 的社群和廣告產品行銷副總裁 Robert Begg 對此表示,透過和行銷人員溝通,發現整個社群都在往視覺媒介靠攏。「在 Twitter 上,如果你開啟一個清單或資訊流,你會發現,影像或影片已占大部分內容。行銷人員需要一些 AI...
矽谷的億萬富翁 Facebook 創辦人馬克·祖克伯(Mark Zuckerberg)和特斯拉創辦人伊隆·馬斯克(Elon Musk)罕見地公開嗆聲,後者多年來一直是人工智慧威脅論的主要支持者,祖克伯對這態度表示質疑,遭到馬斯克回擊,他認為祖克伯對於人工智慧知之甚少。2017 年 7 月 24 日祖克伯在自家後院直播時,回應了網友的問題,他在影片中直接向馬斯克提出質疑,為何馬斯克創辦如此多頂尖的科技公司,卻對人工智慧的看法這麼負面。多年以來馬斯克在不同場合多次表態對人工智慧威脅人類生存的擔憂。2017 年 7 月 25 日馬斯克在個人 Twitter 上回應了祖克伯的質疑,他認為後者對人工智慧的了解非常有限。馬斯克擔心由人工智慧驅動的機器人會威脅人類的生存,2014 年時他還表示人工智慧比核武器威脅更大。Facebook 的直播中,一位剛看過馬斯克有關人工智慧威脅論訪談的網友,詢問祖克伯對這觀點的看法。 祖克伯表現非常樂觀,他認為用技術創造新的產品並不斷升級,特別是加入人工智慧之後,世界會變得更好。這看法可能與他本人的樂觀性格有關,同時他也無法理解那些將人工智慧的應用前景形容成世界末日的人,消極的觀點可說是很不負責任。他相信人工智慧能讓汽車更安全、拯救生命,應用在醫療領域能提升診療效果。每當他聽到有人說人工智慧會傷害人類時,覺得技術應用方面總是有好有壞,這取決於人如何構建它,開發者需要更關注技術應用在什麼領域,了解如何使用它。當人們在爭論是否應該管理人工智慧的研發時,這反讓人很困惑。 I’ve talked to Mark about this. His understanding of the subject is limited. — Elon Musk (@elonmusk) 2017年7月25日馬斯克在回應祖克伯時表示,他們之間已有過溝通,他認為祖克伯對人工智慧這議題的了解非常有限。兩個領域不同的億萬富翁,但各自在不同的領域上發展人工智慧相關的技術,人工智慧現在還在起步階段,要談到會不會毀滅人類或許尚嫌太早,不過人類科技發展的歷史就是需要不同想法的人相互制衡,或許大家都朝著自己的方向努力,我們的後代子孫就可以同時享受人工智慧的便利,但又不需要擔心潛在的危險。 Elon Musk fires back at Mark Zuckerberg in debate about the future: ‘His understanding of the subject...
Netflix 不久前推出了第一個互動式選擇節目,觀眾可以拿遙控器控制主角的選擇,進而決定故事發展。不過,從迪士尼的新研究看來,在未來,觀眾也許只需一個微笑,就能改變故事走向了。迪士尼研究中心(Disney Research)近日發表了一份新論文,公布了一項用於觀察分析在電影院看電影觀眾反應的技術。也就是說,當那些觀眾在看電影的時候,電影其實也在觀察你們看得開不開心。這項技術名為分解變分自編碼器(factorized variational autoencoders,下稱「FVAE」),是一項採用深度學習的神經網路,它可以在漆黑的電影院裡捕捉上百名觀眾的表情,並可以自行學習「微笑」和「大笑」等概念。▲ 你看電影時的微笑,屬於哪個區間?(Source:論文截圖)包括迪士尼在內的電影製作公司,大多都會在電影完成後,找焦點小組來對影片進行測試播映,以了解觀眾的反應是否和創作電影時的意圖相符(在該笑的地方是否有笑,該感動時有沒有感到),並且會根據回饋結果調整影片剪切。和焦點小組相比,人工智慧可分析的資料以及分析程度更高。迪士尼研究的科學家 Peter Carr 在接受 Phys.org 採訪時表示:我們能獲得的資料遠比人工可分析的要多。這就是電腦得參與的原因──它們可以在不弄丟重要細節的情況下總結分析資料。而且,除了收集分析資訊的能力了不起之外,FVAE 讓人更驚豔在於對觀眾反應的預測能力。本次研究的資料都來自同一家電影院。研究人員在 2015 年至 2016 年間的 12 個月內,在這家電影院裡記錄了 9 部電影(《蟻人》、《動物方城市》、《STAR WARS:原力覺醒》等),合計 153 個場次、3,179 名觀眾以及 1,600 萬條資訊。而這些資料中,研究人員只用了每場電影 80%的觀眾資料來訓練 FVAE,而剩下的 20%觀眾,就是給 FVAE 的測試題。對於這 20%觀眾的資料,研究人員只將每名觀眾最開始 5%的資料登錄到 FVAE,做為推測剩下 95% 時間內的觀眾表情變化。雖然 FVAE 獲得的資料還比較初步,但和其他神經網路的預測結果對比,FVAE 的錯誤率是最低的。▲ FVAE 在判斷資料和預測中的錯誤率都比其他模式低。(Source:論文截圖)這就意味著,只讓這神經網路觀察你看電影前 10 分鐘左右的表情,它就能猜到,你對剩下的這些內容會不會感興趣。再跳一步想,說不定以後就能用這類神經網路來判斷並為觀眾選擇,讓故事向他們最喜歡的情節發展方面。內容商對觀眾喜好的觀察形式,一直以來都是在科技發展過程中不斷演變。從電視時代開始,尼爾森就給樣本家庭提供有記錄功能的機上盒;而到了網路時代,影片則會記錄我們留下的觀看歷史;而現在來到人工智慧時代,在技術強大的分析能力加持下,內容商甚至想即時了解我們對內容在情緒上的喜好,最終甚至達到可預測的能力。而這個技術,對於產品跨越影視娛樂內容和主題樂園的迪士尼來講,尤其有價值。在今年 SXSW 活動中,迪士尼研發部副總裁 Jon Snoddy 表示,他們正在嘗試利用人工智慧技術和機器學習,創造極為逼真的動畫角色機器人,並負責和遊客進行互動。這個時候,懂得針對遊客情緒來反映,就顯得特別重要了。(本文由 愛范兒 授權轉載;首圖來源:Flickr/Marek Kubica CC BY 2.0)延伸閱讀: Netflix 推出全新互動影視劇,讓你參與劇情的走向
亞馬遜 Echo 的風靡,帶動了全球智慧音箱的風潮,智慧音箱創業者雨後春筍般出現,各個巨頭也各個摩拳擦掌,想在這個風頭做一下嘗試,包括蘋果、Google 都已經有成品推出。7 月 25 日,據《電子時報》網站引述行業消息人士稱,美國科技巨頭 Facebook 也正在開發一款智慧音箱。消息稱,Facebook 的智慧音箱將更加注重視覺畫面的互動,而為了保證視覺效果,Facebook 將為這款音箱配有一個 15 英吋的觸控式螢幕,據悉,螢幕將由 LG 顯示器公司提供。根據相關消息爆料,該音箱的產品設計團隊是 Facebook 內部負責新興業務的「8 號大樓」部門。而這款智慧音箱將由台灣代工巨頭和碩科技製造,預計明年第一季對外發表。目前,傳和碩在中國的工廠已經小批量生產 Facebook 智慧音箱的樣品。對於新進入智慧音箱領域的玩家來說,多數都是以亞馬遜的 Echo 為標竿,做一些微差異化的客製,但核心功能與 Echo 比較雷同,包括蘋果、Google 的智慧音箱也不外乎語音播報、生活服務、語音控制家電等功能。而 Facebook 在這個時候進入,先不說進入的時間已經稍晚,單單 Facebook 本身在硬體方面的積累,相對於其他巨頭的優勢也不是很明顯。不過這個時候布局智慧音箱市場(甚至是語音辨識、語音互動市場),Facebook 一定有自己的邏輯。Facebook 以社群網路起家,擁有近 20 億用戶,加上 WhatsApp 和 Messenger 的月活躍用戶均已突破 12 億,龐大的用戶群就是一個天然優勢,雖然其智慧音箱是否會和這些社群工具進行整合還不好說,但相信 Facebook 應該不會放過社群這個切入點。然而社群可以是切入,但不一定是全部,Facebook 近年來也在多個領域布局,而智慧家居也是一個巨大的市場,目前來看,多數人都認為音箱(語音技術)會是智慧家庭的入口,掌握這個入口對於未來相當重要。(本文由 雷鋒網 授權轉載;首圖來源:shutterstock)
為搶佔 AI 商機,科技部舉辦科技大擂台,懸賞總獎金新台幣 3,000 萬元,邀請好手角逐,主題以電腦中文聽力理解在地腔調如台灣國語為競賽主題,發掘人才技術,協助國內廠商開發相關應用。科技部部長陳良基表示,為加速台灣人工智慧(AI)科技發展,一改以往計畫補助模式,以挑戰賽模式,舉辦「科技大擂台 與 AI 對話(Formosa Speech Grand Challenge)」,用總獎金 3,000 萬元、首獎 2,000 萬元,激勵頂尖團隊挑戰技術瓶頸。陳良基解釋,語音對話是最直覺且人性的人機互動介面,未來各電子產品要結合 AI 智慧化時,語音介面是非要不可的技術。像在嘈雜的環境,要讓電腦聽懂人的講話,相當困難。陳良基說,AI 語音涵蓋「語音辨識」、「語音理解」兩項核心技術,兩者皆須與在地契合,包括慣用語、在地腔調、文化風俗、使用情境及背景雜音的掌握與判斷,才能實現人機無礙的對話。他強調,台灣若開發出在地語料庫及知識建構,都能夠共行,在全世界很多的地方,都會擁有優勢。科技部次長許有進說明,「科技大擂台 與 AI 對話」競賽分為熱身及正式賽兩項進行,熱身賽 8 月開始展開賽程,10 月中決賽,同步提供教育訓練課程。他指出,正式賽則在 107 年 3 月開賽,108 年 3 月決賽,挑戰在複雜環境下 AI 中文語音辨識與語意理解的能力。同時,科技部也將建置各類情境的中文語音大數據,協助國內技術團隊與業界開發 AI 中文語音對話與應用服務。(作者:陳政偉;首圖來源:shutterstock)
南韓努力研發生物製藥,將結合人工智慧(AI)運算工具,開發全新藥品。韓國先驅報(Korea Herald)報導,南韓藥品暨生物製藥商協會(Korea Pharmaceutical and Bio-pharma Manufacturers Association,KPBMA)24 日宣布,2017 年擬創立一座 AI 藥物研發支援中心,希望能幫助國內製藥廠,加快新療法的研發進度。新藥研發是一項冗長、風險高又資本密集的過程,根據 KPBMA 統計,藥廠平均要花 10 年、投注 24 億美元的資金,才能開發出一款全新藥物。在開發新藥時,藥廠一開始得檢驗約 5,000~10,000 種新藥原料,慢慢刪減到只剩一項,然後繼續研發。KPBMA 認為,AI 和大數據可在這個過程中助研發人員一臂之力,找出最具潛力的候選藥物,並擬定最有機會成功的研發流程。KPBMAi 研發委員會董事成員 Pae Young-wook 說,AI 能夠分析醫療大數據,藉此預測藥物的成效和副作用,可作為臨床實驗規劃的指引、讓結果最佳化,大幅降低時間成本。世界級的大藥廠,早就在用 AI 協助新藥研發。舉例來說,輝瑞(Pfizer)就採用了 IBM 的 AI 軟體「華生(Watson)」進行新藥開發的工作,加快腫瘤免疫學的研究。(本文由 MoneyDJ新聞 授權轉載;首圖來源:shutterstock)
107 年度科技預算審議結果今天出爐,科技部表示,加計前瞻特別預算後的整體規模達新台幣 1,178 億元,創歷年新高,較1 06 年度行政院核定數成長約 9.2%。其中,前瞻特別預算佔 177 億元,扣除特別預算後的整體科技預算為 1,001 億元。科技部指出,根據經費分配顯示,基礎研究預算總計核列共 364.9 億元,包括有科技部的 262.4 億元及中央研究院的 102.5 億元,兩者合計約佔 107 年度不含特別預算的整體科技預算 36.5%,顯見政府對基礎學術研究的重視。除匡列鉅額預算外,科技部表示,在不含特別預算的 1,001 億元科技預算中,還透過三大創新措施方式支持基礎學術研究,分別為「強化貴重儀器中心服務量能」、「整合國家實驗室資源」和「維持長期研究經費」等,以做為國內基礎研究科學家們的後盾。舉例來說,像是科技部主管預算總數為 423 億元,其中就匡列 262.4 億元支持各學術司的基礎研究,約佔整個科技部預算的 62%,整體佔比仍維持和 106 年度相當比例。科技部長陳良基表示,基礎研究是科技發展的基礎,有紮實基礎研究才有廣泛的科技應用,政府十分重視也力保基礎研究經費。在「強化貴重儀器中心服務量能」方面,科技部將建置貴重儀器共用服務網路,提供全國科學研究及產業界共用;「整合國家實驗室資源」部分,將所屬法人的 13 個國家級實驗室建置共用研發網路,積極提供國內基礎研究實驗平台。科技部表示,在「維持長期研究經費」方面,未來將逐步提高多年期計畫比例,使其成為常態,以鼓勵研究人員能長期投入新知識、新技術的基礎科學研究工作。