AlphaGo 與中國 5 位九段棋手的團體戰在 26 日下午登場,由團隊執黑子先發,在接近 4 個小時的對弈後, 5 位棋手在收官階段主動認輸,讓 AlphaGo 再奪下一場勝利。出戰的團隊由中國棋手時越、羋昱廷、唐韋星、陳耀燁和周睿羊組成,5 位都是中國 9 段的年輕棋手,其中負責執棋的隊長周睿羊因為下棋風格獨特,更有著「人間 AlphaGo」、 「Alpha 羊」的稱呼。只可惜 AlphaGo 仍舊是技高一籌。在今天的團隊賽中,團隊執黑子先發,雙方各有 2 個半小時的思考時間,雖然團隊能聚集更多的看法,但也因此花了更多的時間討論如何下棋,至盤中時團隊已經用盡了時間,而 AlphaGo 還僅用了 1 小時。在時間用盡後團隊方進入 3 次一分鐘的讀秒時間,因此改由唐韋星負責下棋,在收官階段 5 人決定投子認輸。儘管圍棋隨著時代持續在進步,但 AlphaGo 在的對弈中的幾手棋仍舊讓人大感意外,讓說明的主持人不僅感嘆的說,「現在的圍棋和以前的圍棋很不同,但在 AlphaGo 出來後又是天壤之別了。」在賽後的訪問中,周睿羊表示,對於能和 AlphaGo 對弈感到十分激動,但因為 AlphaGo 在白棋時下法比較多變,第 4 手的下法就已經出乎團隊意料,導致在第一場爭奪中就屈居下風,至盤中都無法找到明顯機會進攻,也因此輸掉這場比賽。唐韋星則指出,至收官時團隊原本早就希望認輸,但他希望再多下一些來觀察 AlphaGo 的下法,看 AlphaGo 會不會因為勝率就高就退讓,但他發現 AlphaGo 即使有些許退讓,下法仍舊十分穩健,因此最終決定認輸。對於記者詢問 AlphaGo 在獲得這次全面的勝利後,是否會將 AlphaGo 在此次賽事中對於形勢及勝率的判斷情況分享給全世界棋迷,DeepMind 研究科學家 David Silver 表示,確實有計畫要分享一些材料給大眾,但關於詳細內容可能要一陣子後才會公布。柯潔與 AlphaGo...
5 月 16 日,Facebook 官網公布,推出全新開源軟體平台 ParlAI,致力於打造一站式對話研究商店,加快提高聊天機器人的智慧聊天水平。人工智慧的一個長期目標就是希望能製造出可以和人類自然交流的聊天機器人。現在生產出來的機器人雖然有時候可以完成具體的單個任務,但是在理解多個句子或者把多個子任務聯合起來形成一個主任務上有很大的困難。像比較複雜的對話,例如,預訂酒店或和它聊體育新聞。這就需要它能理解多句意,並且能夠推理來進行下一輪談話。因為人類對話很複雜,在很多有關聯的任務中使用的是相同的輸入輸出格式,卻需要不同的知識技能,機器人一定會被這些任務打敗。為了達到這個目標,開發一個軟體用來整合這些任務,以及可供代理學習是很有必要的。找到了這個需求後,Facebook 的 AI 研究團隊開發了一個新的開源平台,用來一次性跨越多任務,訓練和測試對話模型。ParlAI 是一站式對話研究商店,研究員可以在這裡提交新任務,對單個對象訓練演算法,共享儲存空間。它和 Mechanical Turk 結合來數據收集、訓練和評估,也可以讓 ParlAI 中的機器人和人對話。這個計畫的目標是將現有對話資料集和學習系統整合,包括人機之間的真實對話。ParlAI 補充了現有的 Facebook AI 研究團隊的文本研究,像 FastText,它是快速和有效的文本分類工具;還有 CommAI,它是用來透過日益複雜的任務來開發通用人工智慧的框架。ParlAI 中的任務超過 20 個公共資料集包含在此版本中,如下圖左邊所示:任務分為 5 類 問和答:這是最簡單的對話框形式之一,每個說話者只有一輪。問和答這種方式是特別有用的,因為評估比其他形式的對話框簡單:如果問題的答案是已知的(即,資料集被標記),那麼我們可以快速檢查答案是否正確。 句子完成(完形填空):在這個測試中,代理器必須在對話框中的下一個語句中填入一個缺失的單詞。雖然這是另一個專門的對話框任務,資料集採集很便宜,評估很簡單。 目標導向的對話:一個更為現實的對話類別涉及到達到一個目標,例如,一個客戶和旅行社討論航班、一個人向另一人推薦電影、兩個人約定何時何地一起吃飯等。 聊天對話框:有些任務不一定有一個明確的目標,更多的是討論;例如,兩個人談論體育、電影或一個共同的興趣。 視覺對話:這些任務包含圖像和文本。在真實世界中,對話框通常以物理對象為基礎。在未來,計劃添加其他感官資訊,如音頻。 在 ParlAI 選擇一個任務和在命令行中指定它一樣簡單。如果資料集尚未使用,ParlAI 會自動下載它。因為所有的資料集在 ParlAI 都會以相同的方式處理,對話代理可以在它們的訓練和測試之間切換。你也可以透過提供一個以逗號分隔的列表,進行一次性多任務指定;例如命令行 -t babi,squad 用了兩個資料集,所有的 QA 資料立刻集合 -t #qa;或者 ParlAI 中每個任務立刻集合 -t #all,目的是為了讓構建和評估一個豐富的對話模型變得簡單。多重世界;代理;老師在 ParlAI 主要的概念(類)是多重世界,代理,和老師。世界是說話者所生活的環境,可以從簡單的雙向對話變化到更複雜的場景,如反應性遊戲環境。代理是可以在世界上表演和說話的東西。代理可以是一個學習者,如機器學習的系統,或一個硬編碼的機器人,用來與學習者互動,如游戲中的非玩家角色。最後,老師是一種和學習者交流的代理,例如,實現了以前列出的任務。所有代理使用一個單一的格式─觀察 / 操作對象(一個 Python)─交換文本,標籤,並與其他代理互相獎勵。代理發送此消息來說話,並透過接收到相同形式的消息,來發現在環境中的其他說話者。這使我們能夠解決各種對話問題,從強化學習到完全監督學習,同時保證所有的資料集符合相同的標準。當研究人員建立新的模型,他們可以很容易地應用在許多任務上。在定義了一個世界和它的代理之後,主迴路調用其中的函數 world.parley (...
記憶體模組大廠威剛科技(ADATA)積極拓展事業版圖,發展非記憶體領域事業,由於看好人工智慧(AI)未來市場發展規模,威剛憑藉耕耘多年的全球品牌、通路及技術優勢,打造兩款服務型陪伴機器人正式跨足 AI 領域。董事長陳立白在發表會中表示,AI 機器人未來商機相當大,將成為台灣下一個「十兆元產業」。陳立白指出,全球 AI 產業產值會在 2030 年快速增長至 5,000 億美元,為目前最可能以最快速度超越智慧型手機產值的產業。不過,機器人領域因技術和經營門檻很高,所以做起來相當不易。「威剛不怕困難花了近三年,集合國內外好幾個團隊的心血,領先業界推出機器人,」陳立白形容這就像是挑了塊「硬牛排」吃,但其實內裡多汁營養高。「未來在物聯網時代,手機將成為人們的『小祕書』,」他說,「機器人不管在家裡或在辦公室,都將扮演『大管家』的角色,成為生活中不可或缺的幫手」。▲ 威剛董事長陳立白指出,AI 機器人將成為台灣下一個「十兆元產業」(Source:《科技新報》攝)威剛所推出的兩款智慧家庭機器人,分別是大台的「AROBOT 萌啵啵」,售價約在 2 萬元新台幣內;小台的 「AROBOT 萌咘咘」,售價則是 9,000 元新台幣有找。兩款機器人將內建六國語言包括中、英、日、法、葡萄牙、西班牙等版本,預計 8 月開始接單,9 月、10 月陸續出貨。▲ 威剛「AROBOT 萌啵啵」體型較大,高約 54 公分,售價約 2 萬元新台幣(Source:《科技新報》攝)▲ 威剛「AROBOT 萌咘咘」體型較小,高約 25.5 公分,無顯示螢幕,售價 9,000 元新台幣有找(Source:《科技新報》攝)威剛機器人除了採用自家記憶體和 LED 外,也採用原相科技和其他廠商所供應的感測器元件,陳立白透露,為響應愛用國貨,接下來計劃採用聯發科晶片。他希望威剛能與華碩(ASUS)成為台灣機器人業界的「雙 A 品牌」,也希望邀請從事 AI 相關技術的台灣廠商加入一起「打群架」,打造類似蘋果供應鏈的機器人供應鏈,共同努力做大這塊餅,將軟硬體、韌體、語音辨識、影像辨識等技術加以整合,搶攻十兆元產業商機。威剛在 AI 機器人這塊餅做大前,已開始進行專利布局搶占先機。陳立白指出,威剛在過去兩年已申請一些全球專利與發明專利,還有部分專利正在申請中。另外,針對威剛機器人的銷售目標,陳立白坦言現在已有外銷訂單,接下來將擴展海外市場,預計一年內可突破 10 億元新台幣業績,屆時將考慮拆分機器人事業,未來也不排除獨立上市。▲ 威剛宣布正式跨入 AI 領域(Source:《科技新報》攝)(首圖來源:《科技新報》攝)延伸閱讀: 推廣 Pepper 機器人半年,沛博科技:台灣環境還有很大的進步空間 Zenbo 現身!施崇棠:「華碩要做一家讓機器人走入千家萬戶的公司」 集娛樂與教育特點於一身,UBTECH 智慧機器人搶進台灣市場...
5 月 10 日,Lee Gamble 在 Twitter 上講述他在挪威奧斯陸一家披薩店的遭遇。他去披薩店用餐,店門口建議菜單的電子廣告正巧壞掉,畫面不是全黑或藍螢幕。螢幕上出現一個對話方塊,內容是大段程式碼。Lee Gamble 仔細看了看,看出這是臉部辨識系統程式。廣告牌透過頂部的鏡頭,蒐集客人的臉部資訊,以判斷其性別、年齡、觀看廣告的時間。一種「老大哥在盯著你」的既視感。目前,這條推文的轉推數早已破萬。有人恐慌,擔心自己的隱私洩露;有人調侃,系統不會是因為人的表情太醜崩潰的吧。▲ Lee Gamble 的推文。別恐慌,它認不出你有網友在推文下科普,別恐慌,這種類別的人臉辨識,早就在廣告業普及了。2013 年,全球零售巨頭 Tesco 便聲稱,要在英國 450 個加油站便利店的電子廣告植入人臉辨識。透過該技術,在得知用戶的年紀、性別後,螢幕上可能會出現對用戶來說,最具吸引力的護膚品建議。為了吸引觀眾觀看演出,2014 年,西班牙一家劇院在劇場座椅前安裝 iPad,利用 iPad 對觀眾進行人臉辨識,偵測表情。如果表演期間,觀眾笑一次,便可在原有票價上減少 0.3 歐元。推出這項優惠後,劇院的票房收益出現大幅上漲。應用在電子廣告中的人臉辨識,具體說來,叫做匿名視訊分析(AVA)。AVA 透過抓取個人面部特徵,與資料程式庫裡海量的人臉資訊進行比對,以此判斷性別、年齡,記錄觀看廣告牌的時間、掃視次數、甚至透過臉部編碼,掌握人們的情感表達,如微笑、皺眉等。與監控裝置不同,AVA 不會儲存影像、視訊。當一個人離開廣告牌現場後,AVA 根本記不住他是誰,使用資料者也無法認出他。在技術上,AVA 辦到了匿名化。▲ 放在披薩店門口的電子廣告牌。但這令人感到害怕如今,酒店、機場、商場,這些人流量大的地方,都可能放著加入 AVA 功能的廣告牌。廣告公司和零售商分析用戶資料,精準地投放廣告。但是,商家在人們不知情的前提下搜集,一名 Twitter 網友說:「這令我感到害怕。」國際上,有一套關於個人資訊使用的隱私標準。其中規定,公司、商家在使用人臉辨識這類技術時,必須明確告知消費者。消費者有權選擇結束,如在使用 AVA 廣告牌的現場,可以選擇性規避顯示螢幕和感測器。有趣的是,一塊電子廣告意外當機,一名網友拍照上傳,一群網友對商家蒐集用戶個人資訊大驚小怪。在網際網路上,個性化建議早就不是新鮮事了。這群上 Twitter 的網友,他們每天搜尋了哪些詞語,點開了哪些網站,他們的年齡、學歷、性別等各種個人資訊,都會被網際網路公司蒐集、整理,然後傳送相應的廣告。同樣的邏輯,在網路上,人們習以為常,視而不見;在現實生活中,卻感到恐懼,擔憂。▲ AVA 功能的硬體,從電子廣告牌上摘除了。經過 Twitter 熱議,如今,那家披薩店已將 AVA 功能的硬體,從電子廣告牌上摘除了。AVA 技術卻不會因此被廣告界拋棄。它甚至會出現在更多、我們意想不到的應用場域裡。以後,當你在看廣告時,廣告也在暗中觀察你。出於禮貌,現在起,我要向所有電子廣告螢幕保持微笑。(本文由 PingWest 授權轉載;首圖來源:shutterstock)
5月18日凌晨,Google CEO Sundar Pichai 在 I/O 大會上正式公布了第二代 TPU,又稱 Cloud TPU 或 TPU 2.0,這一採用雲端計運算的硬體和軟體系統,將繼續支撐 Google 最前沿的人工智慧技術。第一代 TPU 於 2016 年發表,它被做為一種特定目的晶片而專為機器學習設計,並用在 AlphaGo 的人工智慧系統上,是其預測和決策等技術的基礎。隨後,Google 還將這一晶片用在了其服務的各方面,比如每一次搜尋都有用到 TPU 的計算能力,最近還用在了 Google 翻譯、相簿等軟體背後的機器學習模型中。今天凌晨,Google 宣布第二代的 TPU 系統已經全面投入使用,並且已經部署在 Google Compute Engine 平台上。它可用於圖像和語音辨識、機器翻譯和機器人等領域。新的 TPU 包括了 4 個晶片,每秒可處理 180 萬億次浮點運算。Google 還找到一種方法,使用新的電腦網路將 64 個 TPU 組合到一起,升級為所謂的TPU Pods,可提供大約 11,500 萬億次浮點運算能力。(Source:wired)強大的運算能力為 Google 提供了優於競爭對手的速度,和做實驗的自由度。Google 表示,公司新的大型翻譯模型如果在 32 塊性能最好的 GPU 上訓練,需要一整天的時間,而八分之一個 TPU Pod...
5 月是 Google 總部所在的山景城一年中最舒適的時節,一年一度的 Google I/O 大會如期在這裡舉行。鋼筋與 LED 交織的露天舞台,後背包和襯衫組合的黑鴉鴉人群讓人總覺得是一場尋常的音樂節,而那些閒坐在草地上的觀眾絲毫不讓你覺得這裡的一切會改變世界,改變億萬人的生活。Why so serious?Google 可不會現場把工程師叫上來給你編一段看不懂的程式碼,這裡的宅宅只會告訴你,嘿,你只需要這麼做,後面的東西會讓你張大嘴巴。這是一場會讓你感歎機器聰明到讓你自愧不如的大會。Google Lens:聰明的 Google Assistant 多了一雙火眼金睛去年解放你雙手的人工智慧助理 Google Assistant 在今年 Google I/O 上依然是全場主角。Google CEO Sundar Pichai 介紹過去一年 Google 達成的各種成就,然後沒有賣關子,端出一個利用人工智慧的新產品,Google Lens。如果你走在路上看到一朵花,但不知道是什麼品種,這時只需開啟 Google Lens,透過鏡頭取景,Google Assistant 便可告訴你這朵花的各種資訊。Google Lens 還有一個更酷的功能,可以辨識 OCR,將鏡頭對準 Wi-Fi 路由器就可以直接抓用戶名和密碼,然後連上 Wi-Fi,免去匯入各種複雜的 Wi-Fi 密碼。鏡頭對準餐廳招牌,馬上就能看到餐廳評分資訊,堪稱超高速版的大眾點評。當然,這只是 Google Lens 一部分功能,在 Google Assistant 會談到更多。Google Assistant:Hey Siri,我來了首先,我們終於可以透過文字和 Google...
在今年的 Google I/O 上,Google 宣佈將加大 Google Assistant 的支援範圍,同時也多了一些小升級,比如能聽懂更多語言,以及第三方硬體的 SDK。iPhone 用戶即日起也能使用 Google 的這款產品。目前 iOS 版 Google Assistant 還只在美國 App Store 上架,因此用戶必須跳轉過去才能下載使用。體驗時,Google Assistant 仍然只支援英文,此外也因為 iOS 的限制,一些聽起來很基本的功能都不能使用,像是設定鬧鐘。Google Assistant 多數時候也只支援 Google 自己的 App,例如叫它傳送電子郵件會直接啟用 Gmail;不過少數第三方 App、或是蘋果的服務是可以操作的,比如 Apple Music、iMessage,或是 Spotify。當然,這款 App 無法透過 Home 鍵喚醒,也不支援 OK Google 口號,只能直接點擊 App,或是有點古怪地透過 Siri 開啟。語系方面,或許因為 Google 仍被阻絕在中國市場之外,今年的一系列新語言仍然沒有中文。此次新增的語言會在夏天尾聲就上線的,包括法語、德語、葡萄牙語(含巴西)、日語,而要稍晚一點至年底才出現的,則有義大利語、西班牙語,以及韓文──幾乎已支援全球最重要的一些語言。而隨著 Google Assistant 支援更多語系,Google Home 也會在加拿大、澳洲、法國、德國與日本擴大上市。至於功能方面,Google Assistant 結合了新的 Google Lens,有點類似...
個人電腦品牌大廠華碩布局雲端發展更進一步,18 日宣布攜手台灣 IBM,透過 IBM 雲端服務暨 Watson 認知運算技術,結合華碩雲端的 OmniStor 數據平台資源,佈局智慧城市與物聯網領域應用,協助在地企業數位轉型,逐步構築雲端生態系,打造更智慧的台灣。華碩雲端近期聚焦發展的車聯網智慧交通領域,未來也可望加入 IBM 雲端,衝刺車聯智慧服務進程。華碩雲端過去參與打造的環境感測器 「空氣盒子」 ,就是結合 IBM 認知雲上的智慧應用來強化使用者互動體驗,亦即透過 Watson 的認知運算技術,輔助環境數據運算,獲得更深入的洞察,將有助於更精準與客製化地監測城市空氣品質。 在目前著重的健康照護領域上,華碩智慧健康服務將導入 IBM 雲端上的 Watson API,推出照護機器人 「Healthbot」,透過 IBM 的 Watson 認知運算技術的理解與學習能力,提供諮詢、量測及衛教等服務,為全民健康與遠距照護帶來全新體驗。另一方面,華碩雲端亦積極推動企業服務轉型,未來將採用 IBM Watson Conversation 打造智慧客服,協助企業夥伴更聰明地擘劃雲端策略。 台灣 IBM 雲端運算事業部副總經理許仲言表示,這次 IBM 與華碩結盟,是憑藉華碩耕耘台灣各產業的大數據優勢,一同拓展雲端與數位轉型服務,期盼雙方合作拋磚引玉,串聯產、官、學界共同打造更智慧的台灣。 華碩雲端總經理吳漢章指出,華碩深耕智慧城市、健康醫療及個人雲服務,積極推廣創新應用,期許成為企業數位轉型的最佳實踐夥伴。本次合作透過華碩 OmniStor 數據平台資源結合 IBMCloud 上的 Watson 認知運算技術,將強化華碩在健康照護、智慧城市以及企業數位轉型的服務能量,同時藉由雙方對產業的洞察與深厚經驗,串連台灣的製造、零售、醫療業等跨界資源,搶攻雲端智慧應用版圖。 吳漢章進一步指出,華碩智慧健康服務將導入 「Healthbot」的部分,預計 2017 年第 4季在台灣推出。目前,暱稱為 Daifu(大夫) 的 Healthbot...
Google 花了十年打造伺服器中心,處理每日數十億次的網路搜尋需求。如今 Google 更進一步,自行研發專屬晶片──Tensor Processing Units (TPU),加快機器學習腳步,並宣稱 TPU 性能優於 CPU、GPU。CNBC、TechCrunch 報導,Google 17 日在 I/O 開發者大會,發表第二代 TPU,處理人工智慧(AI)工作。Google 推出新版 TPU,顯示該公司不想倚賴其他業者,打造核心的計算基礎設施。當前 Google 使用 Nvidia 的 GPU 處理機器學習工作,倘若 Google 繼續自行研發晶片,可能會衝擊 Nvidia 發展。詳細來說,深度學習(Deep Learning)是 AI 的一種,包含兩個階段,第一階段是「訓練」,協助類神經網絡辨識資料;第二階段是「推論」,讓機器能判讀數據、做出推測。過去五年來,GPU 是深度學習在「訓練」階段的必備晶片,能夠辨別影像、語音等。2016 年發布的第一代 TPU,只能用於深度學習的「推論」階段。第二代 TPU 更進一步,能夠處理「訓練」階段工作。Google Brain 研究團隊主管 Jeff Dean 說,預料未來會更常使用 TPU,處理「訓練」階段工作,加速試驗循環。他說,以機器翻譯系統為例,當前最佳的商用 GPU,要使用 32 顆 GPU,跑上一整天才能完成「訓練」;同樣的工作量改用 TPU,只要 8 個相連 TPU,最多六小時就能搞定。倘若此一趨勢持續,不只 Google 可能減少購買 Nvidia 晶片,其他原本使用 Nvidia 晶片的業者,也可能改用 Google 資料中心處理 AI 運算,會讓 Nvidia 業務遭受雙重打擊。上個月...
馬斯克(Elon Musk)創立的人工智慧公司 Open AI 最近有了新的突破,透過新型演算法「一次性模仿學習」(one-shot imitation learning),Open AI 讓機器人只需要看一次示範動作,就能成功複製人類的行為。Open AI 表示,透過一次性模仿學習,研究人員只需要在虛擬實境(VR)中示範一次動作,機器人就能透過相同的動作做出同樣的結果。以這次的實驗為例,在看過示範後,機器人就成功地將桌上分散的木塊堆疊成相同形狀。Open AI 的機器人外觀和普通機器手臂無異,搭載視訊鏡頭、手臂及夾爪三大部分,系統則由兩大神經網路組成:視覺網路(Vision network)與模仿網路(Imitation network)。Open AI 不採用真實影像,而是將數十萬張具有不同紋理、光影的虛擬影像,透過鏡頭輸入視覺網路來進行訓練,模仿網路則透過觀察示範內容,來推測出行為的目標,並進而實現出任務的意圖。但模仿網路究竟是如何學會推測的?Open AI 表示,他們先是用 10 幾項不同的任務對模仿網路進行訓練,每個任務都進行了數千次的虛擬示範,讓模仿網路觀察並學習推測,並逐漸學會在第一次示範動作時,就能有效理解任務的意圖。透過這兩大神經網路系統,即使在啟動參數不同的情況下,機器人也能夠達成目標。(Source:OpenAI)以這次的示範來說,木塊可以任意擺放在桌上的任何位置,如果示範的結果是藍色木塊於白色木塊上方,機器人會找到在不同位置的藍白木塊,並確實地照順序堆疊完成任務。研究人員以嬰兒為例,當看到成人在面前吐舌時,嬰兒也會試著模仿吐舌,人類的模仿本能讓學習事物能夠非常快速,「我們也希望讓機器人具備同種學習功能。」 robots-that-learn (首圖來源:Flickr/Heisenberg Media CC BY 2.0)

