進入 2017 年 9 月,智慧手機晶片行業發生了新變化。先是月初華為在德國柏林國際消費類電子產品展覽會發表全球首款人工智慧晶片麒麟 970,接著蘋果在新品發表會宣布 A11 Bionic 晶片的誕生。一時間,智慧手機行業也擁抱人工智慧,行動 AI 晶片成為業界關注的焦點。大勢當前,無論是這個行業的先行者還是後來者,都絲毫不敢怠慢。華為:借用外力先走一步麒麟 970 在 CPU、GPU 等傳統晶片項目的更新自不必說,我們關心的是它之所以稱為全球首款人工智慧晶片的部分,也就是內建那塊 NPU(Neural Processing Unit,神經網路處理單元)。▲ 華為於德國柏林 IFA 2017 發表全球首款人工智慧晶片麒麟 970。(Source:華為)雖然華為並沒有在發表會時重點強調,但我們要指出,華為口中的 NPU 實際上就是中國科學院計算基數研究所旗下的寒武紀公司自主研發的「寒武紀 1A 深度學習處理器」( Cambricon-1A Processor),寒武紀對它的介紹是「國際首個商用深度學習處理器產品,在人工智慧應用達到 4 核 CPU 25 倍以上性能和 50 倍以上效能」。做為專門為深度學習客製的模塊,NPU 在特定任務的表現令人吃驚。比如說在圖片辨識任務中,NPU 每分鐘可辨識 2,005 張,CPU 每分鐘 95 張,前者比後者多了 20 倍;當然在功耗上,也有飛躍式的提升。當然為了配合 NPU,華為也在麒麟 970 採用 HiAI 行動技術架構,來使效能最大化。華為也在推出麒麟 970 同時推出一個開放 AI 生態環境,支持 Tensorflow...
只要看走路的姿態,就可以認人不需看臉?中國科學院最近在電視節目披露一種新興的生物特徵辨識技術,利用人走路的姿態來辨別身分。這個技術利用高解析度攝影鏡頭進行,辨識距離可達 50 公尺,在 200 亳秒內,就能準確辨識特定對象;就算遮住臉部,都可辨識身分,不需目標人物配合。中國科學院自動化所副研究員黃永禎介紹,以往的虹膜辨識技術需要 30 公分內才能辨識,人臉辨識就要在 5 公尺內,這種步態辨識技術,在超高清鏡頭輔助下,辨識距離可達 50 公尺。即使一個人在幾十公尺外戴面具,且背對監控鏡頭隨意走動,步態辨識技術算法都可判斷其身分。這套技術更可在大範圍人群應用,以運算技術來說,可對 100 平方公尺內 1,000 人即時運算。科學院稱此技術可廣泛應用於安防、公共交通與商業。中國正建立一個擁有 2,000 萬個監控鏡頭的「中國天網」大數據工程,如果配合這種新技術,通輯犯走到天涯海角都逃不掉。但另一方面,是否會監控一般市民、侵犯個人隱私,這都是值得關心的課題。(本文由 Unwire HK 授權轉載;首圖來源:影片截圖)
得益於各種套件,今天的機器學習門檻越來越低。但 Google 顯然不滿足,新推出 Teachable Machine 專案,讓用戶無需程式設計就可用手機、平板、電腦等裝置的鏡頭採集資料來機器學習。這專案是 Google 的 A.I. Experiment 一部分,來源碼已公布在 Github。簡單的說,Teachable Machine 是一個基於瀏覽器的機器學習示範實驗,用一個叫 Deeplearn.js 的程式庫構建,網頁開發者可編寫一個簡單的視覺匯入,並設定匯出和 3 個訓練分類器,在瀏覽器訓練新的神經網路。示範影片裡 Google 沒有詳細說明更深的機器學習工作原理,但足以讓大多數人對機器學習有最基礎的概念。如下圖所示,網頁中可呼叫鏡頭獲得不少於 30 幅的影像資訊,作為訓練的「匯入」;中間的學習框包括 3 個分類器,用 Green、Purple、Orange 表示,機器透過你做的動作學習,進而「學會」辨識相應動作;最後是匯出部分,分類器根據不同匯入,按照訓練結果分類出最右側的結果。首先訓練 Green 分類器,如圖所示,訓練者抬起手,按下「Train Green」按鈕,鏡頭自動生成一個包含若干個抬手圖的訓練集。我們可以看到,分類器可 100% 辨識抬手的動作並與貓關聯。類似可訓練其他分類器,例如放下手訓練 Purple 分類器並對應到狗的匯出。然後我們就可以開始調戲機器了:如果你半舉手,機器認為你有 64% 可能是抬手,35% 可能是不抬手,對應仍然匯出貓;如果舉另一隻手呢?機器雖然沒有見過你舉另一隻手的圖,但還是能 100% 確定應該匯出貓。匯出可設定為圖片、音檔或語音,開發者可方便地將這些匯出調換成自己需要的素材。對機器學習一無所知的讀者來說,該實驗可直覺地展示機器學習的基本概念。這專案執行在基於 Java 的 deeplearn.js 框架,可在大多數硬體(據回饋目前不支援 iPad Pro)大多數瀏覽器順暢執行。完整的影片在這:看了那麼多,你是否已迫不及待想試一下?感興趣的讀者可在 Github 檢視來源碼,自己動手試一下。(本文由 雷鋒網 授權轉載;首圖來源:Teachable Machine)延伸閱讀: 翻轉人類未來的...
機器不只會拍照,還會分析眼前所見,採取行動。晶片廠紛紛投入研發電腦視覺(computer vision),預期未來將帶來可觀營收。維基百科解釋,電腦視覺是研究如何讓機器「看」的科學,用攝影機和電腦代替人眼辨識目標、跟蹤和測量等機器視覺,並進行圖像處理。華爾街日報 4 日報導,電腦視覺是新萌芽的市場,自駕車和機器人等將帶動發展。IDC 稱,去年電腦視覺的市值為 10 億美元,估計 2021 年將增至 26 億美元。IDC 分析師 Michael Palma 說,電腦視覺的應用瀕臨成功邊緣,就算不是大規模的成功,也非常非常接近。以英特爾(Intel)的 Myriad 晶片為例,這系列晶片在安控攝影機和無人機找到利基市場,如今更切入醫療領域。新創企業 Doctor Hazel 運用 Myriad 晶片開發出工具,搭配醫療相機使用,可以現場診斷出患者是否罹患皮膚癌。Doctor Hazel 表示,正確率為 85%,繼續運用更多影像資料訓練,準確率還會提高。投入電腦視覺的晶片業者包括 Nvidia、高通、英特爾、安霸(Ambarella)等。Benzinga 報導,摩根士丹利(大摩)向來極為看好美國影像處理晶片大廠安霸,分析師 Joseph Moore 和 Craig Hettenbach 9 月底報告上修安霸目標價至 115 美元。和 10 月 4 日收盤價 49.50 美元相比,有 132% 的上行空間。大摩稱,看好機器視覺晶片的發展,要是安霸最終產品一如預期,將大有可為。(本文由 MoneyDJ新聞 授權轉載;首圖來源:shutterstock)延伸閱讀: 電腦視覺讓農業裝置會「看」了,施肥除草更精準 從種植到收穫都不需人力,英團隊完成首個無人農場計畫
10 月 4 日,DeepMind 在部落格發文稱,一年前提出的生成初始聲訊波形的深層神經網路模型 WaveNet 已正式商用於 Google Assistant,該模型比一年前的初始模型效率提高 1,000 倍,且比目前方案更能模擬自然語音。以下為 DeepMind 部落格的詳細資訊,編譯如下。一年前,我們提出一種用於生成初始聲訊波形的深層神經網路模型 WaveNet,可產生比目前技術更好和更逼真的語音。當時,這個模型是一個原型,如果用在消費級產品,計算量就太大了。過去 12 個月,我們一直努力大幅度提高這模型的速度和品質,今天,我們驕傲地宣布,WaveNet 的更新版本已整合到 Google Assistant,用於生成各平台上所有英語和日語語音。新的 WaveNet 模型可為 Google Assistant 提供更自然的聲音。為了理解 WaveNet 如何提升語音生成,我們需要先了解目前字檔到語音(Text-to-Speech,TTS)或語音合成系統的工作原理。目前的主流方法是基於所謂的銜接 TTS,使用單個配音演員的高品質錄音的大資料庫,通常有數小時的資料。這些錄音分割成小塊,然後將其組合以形成完整的話語。然而,這方法可能導致聲音在連線時不自然,且難以修改,因為每當需要一整套改變(例如新的情緒或語調)時,就要用到全新的資料庫。另一方案是使用參數 TTS,該方案不需要用諸如語法、嘴型行動的規則和參數來指導電腦生成語音並銜接。這種方法即便宜又快捷,但這種方法生成的語音不那麼自然。WaveNet 採取完全不同的方法。初始論文中,我們說明一個深層的生成模型,可以每秒處理 16,000 個樣本、每次處理一個樣本檔的方式構建單波形,達成各聲音之間無縫轉換。WaveNet 使用卷積神經網路構建,用大量語音樣本資料集訓練。在訓練階段,網路確定語音的底層架構,比如哪些音調相互依存,什麼樣的波形是真實的以及哪些波形不自然。訓練好的網路每次合成一個樣本,每個生成的樣本都考慮前一個樣本的屬性,產生的聲音包含自然語調和如嘴唇形態等參數。它的「口音」取決於它接受訓練時的聲音口音,而且可從混合資料集建立任何獨特聲音。與 TTS 系統一樣,WaveNet 使用字檔匯入來告訴它應該產生哪些字以回應查詢。初始模型以建立高傳真聲音為目的,需要大量的計算。這意味著 WaveNet 理論上可做到完美模擬,但難以現實商用。過去12個月,團隊一直在努力開發一種能更快生成聲波的新模型。該模型適合大規模部署,並且是第一個在 Google 最新 TPU 雲端基礎設施應用的產品。▲ 新模型 1 秒鐘能生成 20 秒的聲音訊號,比初始方法快 1,000 倍。WaveNet 團隊目前正在準備一份詳細介紹新模型背後研究的論文,但我們認為,結果自己會說話。改進版的 WaveNet 模型仍然生成初始波形,但速度比初始模型快 1,000 倍,每建立 1 秒鐘的語音只需要...
美國航空巨頭波音集團在 5 日宣布將收購飛行技術公司 Aurora,其目前正在幫 Uber 設計飛行計程車,而波音表示,這個收購案將會強化其無人飛行載具的研發能力,並成為新創業務的重要一步。 波音首席技術長 Greg Hyslop 表示,聯合 Aurora 的力量,波音將會研發出先進的無人系統,應用在商業及軍事產品上,以開拓新的市場。他強調,航空業的生態即將改變,也暗示了,人工智慧技術將會成為關鍵。不過此購併案也將受到美國國防部的審查,事實上,Aurora 不僅幫 Uber 設計 eVTOL 飛行計程車,也有國防部的合約在身。Aurora 是以無人機起家的公司,於 1989 年就已成立,擁有約 500 多名員工,當然相對波音這種龐然大物來講,只是一家小公司,但在部分技術上已超越這些航空巨頭。Aurora 曾在早期與 NASA 合作過,目前不僅參與了美國國防部的全球鷹計畫,更負責研發 XV-24A Lightning Strike 垂直起降無人機。Aurora 創辦人 John Langford 指出,公司一直致力於創新航空技術的發展,讓飛機能更「聰明」的飛行,與波音結合後,將計劃發展長程的航空器、機器人駕駛以及垂直起降電動飛機。目前收購細節尚未披露,不過波音承諾,若收購成功,Aurora 仍是一個維持獨立營運的子公司。雖然此案還未通過相關單位的審查,並不影響波音的財務營運,但當日波音股價上揚近 1.22%。值得一提的是,近期國防承包商的動作相當頻繁,諾斯洛普公司才剛併購 Orbital ATK ,今年初,波音其實也才剛收購 Liquid Robotics,一家研發無人潛艇的公司。 (Source:Google 財經) Boeing to Acquire Aurora Flight Sciences to Advance Autonomous Technology Capabilities Boeing...
這個年代各大科技大廠都有 AI 相關計畫,就連日本、南韓企業,以即時通訊軟體聞名的 LINE 公司也得跟上這股浪潮,並且也加入搶 AI 人才行列。2016 和 2017 年 LINE 開發者大會重點的 LINE AI 平台 Clova,如今第一個產品智慧音響 WAVE 正式上市,售價 1 萬 4,000 日圓。LINE 開發的人工智慧助理 Clova,同時結合亞太最大訊息平台 LINE 及南韓第一大搜尋引擎 NAVER 的內容和服務。Clova WAVE 今年 7 月 14 日以試用版開放預購,試用版僅搭配擁有 4 千多萬首歌曲的 LINE MUSIC 音樂串流服務,但在日本已創造熱銷風潮,也獲得許多用戶正面反饋。LINE 也推出 Clova WAVE 和 LINE MUSIC 的期間限定組合優惠,優惠截止日為 2018 年 1 月 31 日。但購買這個組合的用戶需於 2018 年 3...
據外媒 The Verge 報導,近日,Google 旗下 AI 研發公司 DeepMind 宣布成立一個 AI 新部門,主要負責研究 AI 帶來的倫理問題和社會問題,如自動化帶給未來經濟的影響等。據了解,新部門的主要目標是幫助技術人員將倫理應用於實踐,幫助社會預測 AI 的影響,並對其影響給予引導,確保 AI 造福人類。2016 年,DeepMind 開發的 AI 系統在圍棋棋盤上打敗世界頂尖選手,因而名聲大振。DeepMind 為新部門命名為 DMES(DeepMind Ethics & Society:倫理和社會)。新部門將於 2018 年開始就這些課題目標去研究。目前,該部門已有 8 名全職員工。不過,按照 DeepMind 的計畫,該部門的員工規模將在一年時間內增至 25 名左右。為了壯大團隊,DeepMind 還從外部學術機構和慈善機構聘請一些顧問,為新部門提供諮詢服務,包括哥倫比亞大學發展學教授 Jeffrey Sachs、牛津大學 AI 教授 Nick Bostrom、氣候變化活動專家 Christiana Figueres。DMES 聯合主管 Verity Harding、Sean Legassick 在公告部落格表示,這些專家不只精通專業技術,還可以帶來多樣化的思考。同時,他們還表示,DMES 將幫助 DeepMind 探索和了解 AI 帶給現實世界的影響。「如果 AI 技術要服務於這個社會,那麼,必須經受社會的優先事項和關注重點的重塑。」據了解,新部門屆時還將與有著類似研究目標的學術團體合作,如紐約大學...
二次大戰時期納粹德軍追捕猶太人,躲在閣樓的小女孩安妮·法蘭克(Anne Frank)所寫的日記,可說是其中最家喻戶曉的故事。不過最後誰出賣安妮一家人,讓她被拘捕然後死於集中營則無人知曉。事隔多年,有人嘗試用人工智慧分析當年的文獻,找出告密者。這個追兇計畫是由 FBI 前探員 Vincent Pankoke 夥同犯罪調查科學家、荷蘭警察與阿姆斯特丹的 Xomnia 數據公司合作,使用特別設計的演算法來分析當時的文獻紀錄。文件包括當年納粹的支援人員、情報人員、歷史記載、警察紀錄和之前的研究等。他們表示,演算法可以搜尋資料並以全新的視覺方式顯示,他們會讓系統更智慧,自動連接人物、事件和地點,找出新的線索,這些單靠人類無法做到。有關背叛 Anne Frank 的兇手,過去一直有不同的理論,不過仍沒有定案,更有研究認為當時可能只是剛好有人來檢查她的住處而不是刻意揭發。這次的研究希望可以為這懸案帶來更多線索,不過目的也不是要追究責任,只是 Anne Frank 被捕至今已經 75 週年,如果可以找到兇手,大概也可為這不幸的事件劃上句號。 Ultimate cold case: Who betrayed Anne Frank? (本文由 Unwire HK 授權轉載;首圖來源:Flickr/dayman1776 CC BY 2.0)
9 月 26 日,在 Nvidia GPU 技術峰會上,Nvidia 創始人兼 CEO 黃仁勳正式發表 TensorRT 3 神經網路推理加速器。據官方介紹,TensorRT 3 能極大改善處理性能,削減從雲端到邊緣裝置(自動駕駛汽車、機器人等)的推理開銷。TensorRT 3 是在 Volta GPU 實現最優推理性能的關鍵,比起 CPU 它能實現高達 40 倍的吞吐量,時延在 7ms 之內。目前,對於 Nvidia 開發者計畫成員,現在有針對 Tesla GPU(P4, P100, V100)和 Jetson 嵌入式平台的 TensorRT 3 提供免費下載。關於 TensorRT據了解,Nvidia TensorRT 是一種高性能神經網路推理引擎,用於在生產環境中部署深度學習應用程序。應用有圖像分類、分割和目標檢測,提供的幀 / 秒速度比只有 CPU 的推理引擎高 14 倍。TensorRT 是世界上第一款可程式化推理加速器,能加速現有和未來的網路架構,TensorRT 可編譯到廣泛的目標 CUDA GPU 中,從 120 TOPS 到 1...