Google 最近在 AI 上的動作有點多。月初時宣布成立新基金 Gradient Ventures,專門投資 AI 公司;而 27 日,Google 又宣布成立一個新的工作室 Launchpad Studio,為 AI 公司提供發展所需的資源。人人生而平等,但創業公司卻生來不平等。AI 創業公司尤其喜歡數據,並想努力獲得足夠的數據,但這往往是他們缺乏的。新工作室就希望透過專門的數據集、仿真工具和幫助開發原型產品,來滿足這些需求。Launchpad Studio 的另一個賣點,是被選中的公司可得到 Google 員工的幫助,比如工程師、智慧財產權專家和產品專家。Launchpad Studio 是 Google Developer Launchpad 的一部分,後者一直在全球範圍內開展加速器業務。據稱,目前 Launchpad 網路在全球 40 個國家有業務,與一萬多家初創公司合作,在全球培訓了超過 2,000 名導師。AI 工作室的想法並不新鮮,有「Android 之父」之稱的 Andy Rubin 就成立了 Playground Global,能為初創公司提供一系列服務,幫助獲得頂尖人才,打磨產品,並與大型科技公司競爭。在 AI 方面,雷鋒網報導過機器學習的專家 Yoshua Bengio 聯合創立的孵化器 Element AI,已經有了 1.02 億美元的 A 輪融資。Bengio 是最著名的 AI 研究者之一,本身就能幫助吸引頂級機器學習人才,效果不會比 Google、Facebook 差。當然,Launchpad...
總是找不到你要買的特定物品嗎?eBay 26 日宣布,將在秋季啟用行動裝置上兩項新功能,運用人工智慧(AI)和機器學習,未來消費者將能透過拍攝鞋子、包包等特定物品照片,來找到 eBay 上販售的類似物品。CNBC 報導,這項功能被稱為「Image Search」,消費者除了能夠透過拍照搜索外,也能運用手機裡既有的物品照片來尋找。另一項功能「Find it On eBay」則讓消費者透過「分享」社群媒體、網站上的照片給 eBay,來尋找到類似的商品列表。這兩項行動裝置上的圖像辨識功能預計將在秋季登場,電腦版本還需要再等一段時間。較可惜的是,目前功能僅提供美國地區用戶使用,海外地區尚未透露何時開放。(Source:eBay 官網)負責採購體驗的副總裁 Mohan Patt 表示,eBay 相信透過與機器學習結合,將能運用全球最大的商業數據庫,來提供消費者快速又可靠的購物體驗。通過結合機器學習,這兩項功能的圖像辨識將隨著時間推移改善,並讓搜尋結果更符合消費者的需求。Patt 表示,eBay 一直都專注於創造相關技術,來幫助數百萬購物者能輕鬆找到自己喜愛的產品,「無論是走在街上或瀏覽社群媒體時,消費者都可隨時隨地掌握購物靈感」。eBay 確實投入圖像辨識一段時間了。TechCrunch 的報導就指出,eBay 前執行長 John Donahoe 在 2011 年底時就曾透露,公司計劃推出行動裝置的圖像辨識軟體。而在去年,eBay 更收購了圖像辨識公司 Corrigon,進一步強化視覺搜索技術。收購了 Corrigon 之後,eBay 負責結構式資料的副總裁暨總經理 Amit Menipaz 就曾表示,Corrigon 對圖像辨識的專業知識和技術,將幫助消費者在 eBay 購物時能獲得最好的結果,這是過去 eBay 無法做到的。不僅是 Corrigon,做為結構式資料(structured data)計畫的一部分,eBay 還收購了瑞典 Expertmaker 和以色列 SalesPredict,希望透過 AI、機器學習來加強數據分析能力。 You will soon be able to search eBay using...
人工智慧,中國有自己的那一套,阿里巴巴推出的語音揚聲器 Tmall Genie 類似亞馬遜的 Echo,搭載語音助理 AliGenie,可以線上購物、查看天氣、放音樂、控制家中的智慧裝置。百度也有對話平台叫做 DuerOS,可以添加在家用機器人、電視機上盒、HTC 智慧手機上,中國科技巨擘期待自家語音助理可以吸引投資者,與亞馬遜互別苗頭。事實上這個市場潛力無窮,IDC 預期 2020 年 51% 的中國智慧駕駛產業,68% 的電話與穿戴產業會搭載語音人工智慧系統。麻省理工科技評論(MIT Technology Review)報導認為,中國發展語音系統有跡可循,因為中文輸入相對麻煩,這也是為何中國消費者早就習慣語音留言取代文字輸入使用 WeChat。但是現在中國的語音助理技術可以執行命令,無法對話,因為對話運算沒那麼簡單,必須先解決中文的複雜性。報導舉例,在中文世界當中,同樣的單字安排在不同的順序上意義就會不同,即使順序相同,意思也會隨上下文出現差異。此外,中國沒有像英文的空格,所以中國自然語言處理研究人員必須教育演算法在哪裡插入空格,以建立句子適當的意義。且中文沒有時態,所以機器很難辨識句子的時間意義。更別說中國有許多方言,對機器學習而言也是一大挑戰。研究自然語言處理的清華大學副教授指出,為了真正了解人類話中的意圖並進行適當溝通,電腦不得不採用語調和壓力等細微的線索。 他們也必須了解情緒,因為人類的決策不是完全依賴邏輯。為了使系統更智慧,百度在平台上引入培訓師模式,讓軟體開發人員透過內建的註釋機器人即時提供語言數據,機器人接收到開發者反饋從中學習,然後更正系統。報導認為,中國研究人員解決這些問題的一個優勢是大量數據,由於支持當今電腦語言理解的神經網路需要大量數據訓練,因此擁有的數據愈多,其神經網路將更智慧化。截至 2016 年底,百度每月活躍行動用戶達 6.65 億戶,截至今年 3 月,阿里巴巴每月有 5.07 億行動用戶。但是阿里巴巴的人工智慧科學家王剛表示,研究人員必須設計不需要大量數據的神經網路,才能讓機器語言學習更有效率。他說,畢竟在現實世界中,人們用不同方式表達同樣意義,電腦不可能學會所有解釋。王剛與研究團隊開發一種不需龐大數據,只要相關主題的數據就可訓練電腦理解主題的方法,例如為了訓練神經網路了解運動醫學文本,只需使用運動與醫學數據,就特定主題訓練神經網路。雖然使用特定主題資料的效果不如大量數據,但是在數據量有限的情況下,這種方法特別有用。由於對話介面的互動更自然,將可吸引更多人進入網路世界,而最終語音助理成功的關鍵就是內容和服務。如在中國推出小魚聲控家庭助理機器人的 Ainemo,計劃透過百度的 DuerOS 對話平台在家庭語音助理中建立教育和醫療保健項目,目標是為不太會使用電腦與智慧手機上網,特別是老人與幼兒提供基於語音的服務。 For Computers, Too, It’s Hard to Learn to Speak Chinese (首圖來源:Flickr/Jonathan Kos-Read CC BY 2.0)
「他」是個混血兒、「他」含著金湯匙出生、「他」曾集萬千矚目於一身、「他」經歷了無數讚譽和質疑,很多人認為「他」會被寫進歷史,如今「他」卻稍顯頹靡……「他」是 Pepper。從 2014 年誕生開始,Pepper 就成了引領「情感機器人」的標誌性產物,並且不斷引發銷售狂潮。但短短 3 年,機器人產業變化巨大,Pepper 風光不再。就在上週,日經新聞報導了一則關於 Pepper 的消息:軟銀集團向財務省關東財務局提交的 2016 財年(截至 2017 年 3 月)有價證券報告書顯示,軟銀旗下開發和銷售 Pepper 的軟銀機器人控股公司(Soft Bank Robotics Holdings Corp,下稱 SBRH)負債已經超出資產 314 億日圓。根據過去媒體一系列數據顯示,SBRH 至今已經連續 3 年虧損,2014 財年虧損 23 億日圓,2015 年淨虧損則高達 117 億日圓。據悉,Pepper 機器人的低利潤和巨大的研發投入是造成高額虧損的主因。那到底是什麼原因造成 Pepper 今日的境遇呢?Pepper 的未來在哪?「先行者」造就了 Pepper 的光環2012 年,軟銀收購了法國機器人公司 Aldebaran,也就是研發了知名雙足機器人 Nao 的公司,並將其改名為軟銀機器人控股公司,SBRH 的第一個作品就是 Pepper。2014 年 6 月 5 日,軟銀首席執行長孫正義帶著 Pepper 出現在了全世界的面前,在那場足以寫入「機器人史」的發表會上,孫正義激動地向全世界宣布,世界第一個可以讀懂人類感情的機器人誕生了。發表會過後,Pepper 就成了各大科技媒體的座上賓,聚光燈下傲視群機。時至今日,提起 Pepper,雖然沒有往日風光,但也是一個不小的話題。Pepper...
AI 浪潮席捲全球,科技部長陳良基 31 日表示,為爭取發展先機,在國內 AI 軟、硬體相關發展計畫共編列新台幣 100 億元預算,且 8 月將舉辦「科技大擂台」暖身賽,廣邀各界好手。陳良基中午接受網路媒體科技報橘專訪,暢談「科技部 AI(人工智慧)大戰略」。他表示,今年是 AI 元年,但運算量是 AI 能否到位的最重要依據,所以他今年 3 月便提出希望爭取新台幣 50 億元預算,建置 AI 主機基礎設施進行雲端運算,這部分硬體計畫現已納入前瞻基礎建設的特別預算內。其次,軟體部分,科技部每年也將投入預算 10 億元、為期 5 年,首期計畫總預算 50 億元,協助各校規劃成立跨領域的 3 至 4 個「AI 創新研究中心」,在國內各校推動、儲備更多 AI 人才和技術,預定今年底前底定學校名單。陳良基說明,AI 創新研究中心研究範疇,包括基礎設施(雲)、技術層面(管)和應用領域(端),透過跨領域和應用方式形成群聚效果,3、4 個中心互相合作或競爭,可造就一個國際矚目的平台。「這兩項軟、硬體計畫會同步推展」,陳良基表示,當各校在進行深度演算時,只要遠端連線到科技部主機即可,不需自行另外建置相關硬體設備。除了訂定計畫之外,科技部 8 月也將首度舉辦「科技大擂台」暖身賽,陳良基說,希望廣邀各界人士挑戰設計中文與台語的 AI 語音,並正確分析語意,且由公視提供語音資料來源,活動首獎獎金高達 2,000 萬元、總獎金共計 3,000 萬元。陳良基表示,藉此活動也將趁機建置語音大數據,希望明年 3 月前可建置 5,000 到 1 萬小時的台灣語音資料庫,此數量已達國際水準,若台灣電子產業未來需要推展 AI 科技產品,即可掌握台灣語言核心發展技術。(作者:黃麗芸;首圖來源:shutterstock)延伸閱讀: 科技部 3 千萬辦擂台,助機器人聽台灣國語...
看過電影《關鍵報告》嗎?如今劇情可能即將要在現實生活中上演了。根據英國金融時報報導,中國臉部辨識廠商正在運用人工智慧(AI)技術研發一項系統,希望用來協助警方在犯罪行為發生之前,就能辨識並逮捕嫌犯。 協助開發的雲從科技(Cloud Walk)正在測試一個系統,透過個人移動路線和行為數據,來評估犯罪的可能性。當公民的犯罪風險到達危險的高度時,系統就會通知警方,讓警方介入干預。雲從科技發言人表示,警方將能透過使用大數據系統,根據人們的目的地與行為來評估高度可疑的人群,如果某人經常前往販賣刀具的商店,又總是在交通樞紐停駐,他的犯罪風險自然就會提升。中國科技部副部長李萌表示,只要政府部門妥善運用這項智慧系統設備,就能夠事先辨別出誰可能是恐怖分子,誰又有做壞事的打算。「犯罪預測將成為中國政府在 AI 科技上的重要應用項目」。中國運用臉部辨識技術已經有一段時間,這項技術甚至用來打擊最常見、最輕微的交通違規行為──逕行穿越馬路,搭載辨識技術的相機會拍攝穿越者的照片,並公布在鄰近的牆上。如今隨著 AI 技術不斷更新,相關辨識功能也持續擴大中。根據了解,中國計劃使用的這項預測犯罪系統,主要仰賴的 AI 技術包括臉部辨識及步態分析,能從監視畫面中辨識身分,「群眾分析」功能也能用來檢測人群中可疑的行為模式,像是專門在火車站偷取錢包的扒手。除了跟蹤有犯罪歷史的人之外,這項技術也能用來監控「高風險」的地方,像是五金行。雲從科技發言人表示,人們如果只是買了一把廚房用刀具,並不會引起關注,「但如果他同時買了一把鐵鎚和麻袋,那他就會變得可疑了」。但金融時報認為,這項新技術也導引出新的問題,那就是可能造成的誤判情況,儘管中國法律上不允許判處某人未犯的罪行,但嫌疑犯仍舊可能被指控「意圖犯罪」。北京一間律師事務所的合夥人指出,嫌疑犯確實可能在沒有證據的情況下被起訴,而在中國現行的司法制度下,這些不具證據的誤判結果將難以在上訴過程中扭轉。 China seeks glimpse of citizens’ future with crime-predicting AI (首圖來源:shutterstock)
根據外媒 Venturebeat 報導,Facebook 已收購 AI 助理新創公司 Ozlo,以幫助 Facebook 建立「由人工智慧和機器學習加乘吸引人的 Messenger 使用體驗」。Ozlo 將加入 Messenger 團隊的消息也在 Ozlo 官網得到確認。此次收購,Facebook 將獲得 Ozlo 的技術和 30 人團,Ozlo 將會關閉網站 API。Ozlo 是 Facebook 前員工 Charles Jolley 與 Mike Hanson 於 2014 年創辦,之前 Jolly 是 Facebook 平台負責人。Ozlo 主要關注用對話形式幫助用戶篩選餐廳,2016 年 1 月,Ozlo 發表 iOS 用戶端。Ozlo 後期也逐漸將服務範圍擴大至為有飲食禁忌的用戶服務,提供天氣預報以及建議電影等。Ozlo 利用 Yelp、Doordash(Yelp 是美國線上點評公司,Doordash 是美國外賣送餐服務公司)的 API。今年 3 月,Ozlo 也推出自己的 API。上週,Facebook...
「Facebook 關閉『失控』的人工智慧系統,因其發展出人類無法理解的語言。」看到這句話嚇死了。事情是這樣的:據「外媒報導」,Facebook 開發的聊天機器人創造了自己的語言。雖然語言還是英語,但人類無法理解。關於「人工智慧是否邪惡」的話題,Facebook 創始人馬克‧祖克柏上週還在跟特斯拉 CEO 馬斯克爭吵。馬斯克站正方,認為人工智慧非常值得擔憂,祖克柏站反方,認為人工智慧很有益處,擔憂完全是過慮。所以……祖克柏就這麼快就被打臉了?曾在著名科幻電影《魔鬼終結者》中出現過的「SkyNet」(天網),真的來臨了?抱歉,這完全是在胡扯。我們來看看到底是怎麼一回事。Facebook 的人工智慧研究院(FAIR)想要訓練一個聊天機器人,讓它學會談判,於是他們開發了一個人工智慧系統。為了幫助大家理解,我們一步一步解釋:Facebook 用了一個神經網路結構來開發這個系統。這個結構叫做「生成式對抗網路」(Generative Adversarial Networks),以下簡稱 GAN。你可以把神經網路理解為一種多層次的、模仿人腦神經元之間相互連接的思考方式的「電腦程式」。而 GAN 是一種目前非常先進的神經網路結構,可以理解為兩個神經網路玩《快打旋風》。玩的越多、時間越長,大家的水準都會越來越高。當然,GAN 也有 3 個甚至更多個神經網路的結構。聊天機器人你肯定見過:蘋果 Siri 就是一個,亞馬遜 Alexa 和 Google Assitant 也是。Facebook 的這項研究也是如此。研究人員訓練了這樣一個聊天機器人,讓它帶著「目的」和人類對話。而這個目的也很簡單:一共有兩本書、一頂帽子和 3 個籃球,3 樣東西分別設定了不同的權重,為的是讓機器人明白它到底有多想要這些東西,然後去和其他人談判。Facebook 觀察到的結果是比較正常的,呈現在下圖中:(Source:Facebook)但是人跟機器人聊天已經不稀奇了……兩個機器人能聊成什麼樣?研究人員都很感興趣。今天的對話就發生在聊天機器人 Alice 和聊天機器人 Bob 之間:上圖是什麼鬼?原來,研究人員把這兩個聊天機器人湊到一起,但忘了給神經網路設定「用英語溝通」的指令。剛才說了,神經網路是個程式,裡面有一大堆各種線性的數學公式,有時候線性的公式無法取得想要的結果,有些非線性的需求沒法用線性公式表達出來,這時候就要設定一個激勵函數。激勵函數對於神經網路,簡單來說就是告訴神經網路「這樣做得分更高」。「堅持用英語說話沒有激勵函數,」這個研究小組的成員之一、喬治亞理工學院的訪問學者 Dhruv Batra 這樣解釋 Alice 和 Bob 奇怪的對話。「機器人會脫線發明一些它們之間才能理解的句法」。結果,Alice 和 Bob 就聊成了這樣。等於是研究人員告訴它們:「請用英文」,但忘了告訴它們:「請用英文語法」。研究人員真的是因為「事情失控了」,才「不得不拔掉系統的插頭」嗎?事情真的像聽上去那樣讓人膽顫心驚嗎?並非如此。「我們的目標是讓機器人和人聊天(提高和人聊天的技巧)。」小組的另一名研究員 Mike Lewis 指出,Alice 和 Bob 的對話就是個試驗而已,讓兩個聊天機器人聊天根本沒有意義。(Source:Facebook)而且,Alice 和 Bob 根本就沒有發明新的語言,因為它們還是在用「i」、「balls」、「the」等英文單字溝通,只是創造了一種新的表達方式而已。而且它們「發明」的新語言,人類真的聽不懂嗎?再看一遍它們的對話:Bob: I can ii everything...
圖形晶片大廠輝達(NVIDIA)在 2 日宣布,將首度推出虛擬實境環境 Holodeck 計畫(Project Holodeck)中,利用 Isaac Lab 模擬器訓練的機器人,並同時推出 VRWorks 360 Video SDK 技術,協助全球各地內容創作者以即時串流方式向觀眾播放高畫質 360 度全景影片。輝達指出,藉由 Isaac Lab 模擬器訓練的機器人不僅能在真實生活做出輪流推倒骨牌的動作,在一旁的參與者還能戴上 VR 頭盔,透過 Holodeck 進入模擬世界與機器人進行遊戲,藉此展現 Isaac 機器人能透過現實或虛擬世界的互動學習,並利用人工智慧(AI)不斷自我修正與更新。事實上,輝達的 Isaac AI 機器人,能幫助機器人學習精細的人機互動工作,如倒咖啡、照顧老年人、動手術以及玩骨牌等。而 Project Holodeck 則是能進行精準物理模擬,並同時容納多個使用者的虛擬實境協作平台。讓人類進入模擬世界,並以真實生活的方式在 VR 環境與機器人互動、調校以及測試,藉此研究人員便能以更安全、快速、低成本的方式將它們部署在真實世界。此外,輝達這次還於 Holodeck 平台上,展出瑞典超跑品牌 Koenigsegg 旗下車款 Regera。輝達進一步指出,虛擬車模型由超過 5,000 萬個多邊形建構而成。進入 Holodeck 平台的參與者能變換超跑車色、行動透視環景角度觀看零件,以探索跑車模型的各項細節。同時,還能和虛擬空間中的參與者看見彼此,並相互交談。另外,輝達還先一步推出最新 VRWorks 360 Video SDK 的 360 度全景拼接技術。這種即時製片與現場轉播上的大躍進,不僅能加速全景影片拼接流程,還能維持高品質影像畫素,讓製作公司、相機廠商、app 程式開發者能將 360 度影片拼接 SDK 整合到即時轉播與後製作業。輝達表示,目前 VRWorks...
近年紡織業從中國移到東南亞與南亞國家,在當地創造大量工作機會,擁有大量人口與低薪的南亞國家希望人口紅利可以率領國家走向經濟繁榮,世界銀行估計未來 20 年,南亞地區一個月會新增 120 萬名勞工,20 年後將新增 2.4 億人,但在世界彼端發展的自動化技術將造成巨大衝擊。據金融時報(Financial Times)報導,位於美國亞特蘭大的 SoftWear Automation 正在開發紡織機器人 Sewbot,可以將整個服裝製造過程完全交給自動化,但要達到低價與可靠性以取代人類,還要一段時間。印度一名紡織工人一年賺 1,200 美元,但現在一台 Sewbot 成本要數十萬美元,不過取代人類只是時間問題,屆時將破壞新興國家的經濟發展模式。以人口紅利做為經濟成長基礎的南亞、東南亞、撒哈拉以南非洲地區受到的威脅更大。印度經濟學家認為,機器人與人工智慧的破壞性比過去的蒸氣、電子、組裝廠或電腦革命影響更大,因為人工智慧取代的不只是例行工作,屆時人口紅利即將變成人口惡夢。1980 年後製造業工作成長速度很慢,甚至有些產業還下滑,2003 年到 2009 年,南亞的就業成長只有總體經濟成長水平的三分之一,主要原因是科技進展快速,導致某些產業大量失業。過去 30 年繁榮的印度 IT 服務公司,也開始受到自動化雲端運算系統的影響。Infosys 與 Tata Consultancy Services 今年都開始裁員,在印度清奈的現代汽車工廠引入 400 個機器人取代大量人力。不願具名的印度科技業者也表示,印度科技業的失業情況會更加嚴重,他的公司評估過引入人工智慧可以取代半數員工。紡織業首當其衝,特別是高度依賴服裝業的孟加拉,出口總額的 82% 是衣服,2.5% 的人口從事服裝生產。包含孟加拉、印度、巴基斯坦在內,有 2,700 萬人受僱於紡織業,主要原因是中國工資上漲太快,去年中國工廠勞工時薪漲到 3.6 美元,比 10 年前增加將近 4 倍。現在中國工廠勞工賺的錢比印度勞工多 5 倍,接近葡萄牙與南非的水準。另外一個原因是現在製作一件 T-shirt 幾乎與 19 世紀自動紡織機發明時完全一樣,因為機器人很難拾起柔軟不規則的棉花並精確地移動,手工縫紉是由許多微小的過程和決策組成,因此很難被軟體複製。縫紉的 4 個步驟,拾起物品、對齊、縫製和處理,只有縫紉已經自動化,其他部分仍然由人類完成。但亞特蘭大公司開發縫紉機器人 Sewbot,為了解決精細材料的問題,他們給機器人相機,像眼睛一樣功能,就像工程師開發自動駕駛車一樣。照相機拍攝被縫合的材料加以分析,然後引導機器人手臂的運動,沃爾瑪投資 200 萬美元作為自動生產牛仔褲計畫的一部分。今年 9...