近日有個行動裝置 app「iTranslate Converse」,主打支援全球 38 種語言雙向語音即時翻譯,據稱出國只要有它就不必租借即時翻譯機,就算在語言不通的國家,也能隨時隨地跟當地人順利溝通交談。究竟 iTranslate Converse 的操作功能及翻譯程度如何?以下實際測試說明。iTranslate Converse 目前僅支援 iOS 10.0 以上行動裝置,Android 裝置暫不支援。待程式安裝完畢啟用,系統會先要求使用者授權麥克風功能才能辨識語音,建議將裝置 180 度上下翻轉讓麥克風朝上,好讓系統清楚接收使用者語音訊息,接著系統會按照設定語言,即時將語音轉換成文字後進行翻譯。操作介面很簡潔,沒有什麼複雜的功能設定。語言設定步驟也相當簡單,只要直接點按國旗圖示,就能進入語言列表變更語言。列表顯示系統共支援 38 種語言,包括中、英、日、韓、印尼、德、法、西班牙、阿拉伯等等;部分語言又再依地區細分,例如英語就分為美國、英國和澳洲三種,西班牙語分為西班牙、美國、墨西哥。另外,中文除了分為繁體、簡體外,也支援粵語繁體。 操作方式測試完成後,接下來要測試的重點就是語音辨識能力及雙向翻譯成效。我們隨意選擇語言為日語和繁體中文,回到翻譯畫面後,在點按或長按螢幕的同時對著麥克風說話,系統會自動偵測使用者說話的語言,並翻譯成所設定的另一語言。由於日本是台灣人喜愛的旅遊國家之一,所以測試看看我們想問的問題,能不能翻成可用的日文跟當地人溝通。下圖左邊是使用者說話內容,系統幾乎可以絲毫不差地辨識出語音內容並轉換成文字;右邊則是翻譯出來的結果。「請問新幹線的月台在哪裡」這句話雖然是問句,翻譯出來的日文卻沒有問句的意思,而且整句話缺少最關鍵的疑問詞「哪裡」。再來測試一下很多人弄錯的「熱水」(お湯),中文語音辨識上同樣沒有問題,日文翻譯也確實將熱水翻譯正確,而不是翻成「熱いお水/熱い水」、「温かいお水/温かい水」等錯誤用法,但整句話還是沒有傳達中文「請給我」的意思,但或許……日本人可能會猜到你需要熱水吧。接著測試雙向翻譯的表現,如果是日文翻譯成中文又會如何?日文語音辨識一樣準確顯示成文字,這回中文有大概傳達出意思了,只是中文「下一站在哪裡」跟「下一站是哪一站」的意思還是有些不太一樣。再測試一個簡單的問題,「這個多少錢」似乎爭議不大。接下來轉換一下語言,既然中文有粵語版,就來試試粵語和英語對翻如何。系統對粵語語音辨識同樣靈敏且準確,就連口語白話字也能清楚顯示出來。像以下這句「今晚得唔得閑(閒)一齊飲嘢」意思是「今晚有沒有空一起喝個東西」, 但翻出來的英文句子馬馬虎虎。再試試英語翻粵語,翻出來的粵語中文會以書面語呈現,但以下面例子來看,語句結構有誤。以上述語言測試過不少語句後,大致總結一下心得。優點方面, iTranslate Converse 雙向語音即時翻譯操作方式相當簡易,在語音辨識與文字轉換上也頗精準,準確率超過 95 %;即時翻譯時間約一、兩秒不會太久,出國使用不失為便利的溝通工具,加上支援雙向語音翻譯,打趴一些單向語音翻譯機,而且安裝在 iOS 裝置上就能使用,省去多帶一機的麻煩。缺點方面,還是回歸到翻譯程度問題,目前無論是哪一款主打即時語音翻譯的 app 或翻譯機,翻譯要達到精確程度都還有頗大進步空間,特別是語意理解在未能確切掌握下,翻譯出來的意思也會有落差,這也是當前語音翻譯技術還在不斷發展改進之處,需要透過使用者大量使用反饋以累積資料、持續學習進步。相信未來語音翻譯程度會更加精準,也讓人們在跨語言溝通上更為便利。(圖片來源:《科技新報》實測畫面)延伸閱讀: Travis 翻譯寶產品長:翻譯需不斷學習才會精準,用戶一開始別期望太高 離線即時翻譯機「ili 」,4 月底前將可在日本各地租借 微軟發表語音辨識外掛,支援超過 20 種語言還能即時翻譯
人工智慧(AI)晶片開發商 NVIDIA Corporation 8 月 7 日漲 3.07%、收 172.35 美元,創歷史收盤新高。NVIDIA 2016 年大漲 223.85%,漲幅居標準普爾 500 指數成分股之冠,今年迄今再漲 61.47%。TechCrunch 報導,軟銀集團(SoftBank Group)7 日公告證實將會把帳上的 NVIDIA 4.9% 股權轉移至軟銀願景基金(SVF)。這意味著 SVF 將會成為 NVIDIA 第四大股東。軟銀社長孫正義 7 日在財報記者會上表示,軟銀或 SVF 都沒有取得多數股權的意圖,也不是純粹為了想獲利。孫正義說,軟銀、SVF 投資許多公司的用意在於讓這些科技大廠未來能有結盟並創造出綜效的可能、NVIDIA 將是這項計畫不可或缺的一環。軟銀目前已是 Grab(東南亞)、Ola(印度)、滴滴出行(中國)以及 99(拉丁美洲)等叫車服務應用軟體公司的主要投資者。孫正義表示未來還打算投資優步(Uber Technologies Inc.)或 Lyft。Thomson Reuters 報導,軟銀第一季(截至 2017 年 6 月 30 日為止)營益年增 50% 至 4,790 億日圓(約 43.2 億美元)。Thomson Reuters Starmine SmartEstimate 調查顯示,20 位分析師平均預期軟銀全年度獲利將達到 1.16...
印度媒體《The Hindu》8 日報導,蘋果(Apple Inc.)執行長提姆庫克(Tim Cook)在受訪時表示,人工智慧(AI)是非常強大的、它將會越來越接近人類的能力,未來在某個時間點,部分 AI 功能將會遠優於人類。他說,AI 就像空氣一樣,看不到卻又無所不在,包括軟體、Apple TV、電子郵件、HomePod 等蘋果研發團隊手上都有 AI 計畫案。庫克指出,GPU 跳躍式的進展讓一年前辦不到的機器學習得以成真,而且未來 5 年還會有更多的進展,這對擁有深厚晶片專業知識的蘋果來說將會是一大競爭優勢。他還提到,A I有可能會遭到濫用,可能會摧毀部分工作並創造新的就業機會,政府應想辦法降低 AI 所帶來的衝擊。華爾街日報 8 日報導,蘋果 2017 年度第三季(截至 2017 年 7 月 1 日為止)研發支出年增 15% 至 29 億美元,同一時間營收僅年增 7%(至 454.08 億美元)。截至 2017 年 7 月 1 日為止的 12 個月期間蘋果研發支出累計達 112 億美元,相當於營收的 5% 比重。根據最新發布的季度公告,蘋果僅表示為支應研發活動擴大已提高相關人事支出。根據 S&P Capital IQ 的統計,美國科技大廠當中以高通(Qualcomm)的研發營收佔比(超過 20%)最高,其次(由高至低)為英特爾、臉書、甲骨文、Google、微軟、思科、亞馬遜、IBM、蘋果、HP Inc.。根據 CNBC 的報導,蘋果圖資團隊在過去一個月內開出超過...
圖形晶片大廠輝達(NVIDIA)繼 7 月在美國檀香山宣布將大手筆送出全球首款 NVIDIA Tesla V100 GPU 加速器給全球頂尖的 AI 研究人員之後,8 日晚間在澳洲雪梨舉辦的國際機器學習大會(International Conference on Machine Learning,ICML)上又再次表示,將贈送 15 部 NVIDIA Tesla V100 GPU 加速器給全球 AI 研究機構,台灣大學也名列清單上。根據輝達表示,在國際機器學習大會與 NVIDIA AI 實驗室計畫成員的會議中,NVIDIA 送出創辦人暨執行長黃仁勳親筆簽名的 V100 GPU 加速器。而 V100 為當前全球最強大的GPU,具備超過 100 teraflop 的深度學習效能。輝達也希望透過 NVAIL 實驗室支援全球各地頂尖大學與研究機構,此次所有受贈單位皆為 NVAIL 成員機構。這次獲贈 GPU 加速器的院校機構包括卡內基美隆大學、華盛頓大學、麻省理工學院、牛津大學、史丹佛大學、加州大學柏克萊分校、多倫多大學、蒙特婁學習演算法研究所、瑞士人工智慧實驗室(IDSIA)、德國馬克斯普朗克電腦科學研究所(MPI Tübingen)、台灣大學、北京清華大學、中國科學院(CAS)、北京大學以及東京大學等 15 個學術及研究單位。華盛頓大學 Pedro Domingos 表示,將會善用這款加速器來執行演算法,並期望能獲得驚豔世界的研究成果。另外,蒙特婁學習演算法研究所 Aaron Courville 也表示,因為非常依賴 NVIDIA 的技術,獲得更多 GPU 一向是好事,且也非常重要。對此,NVIDIA...
國外媒體用 AI 人工智慧機器人自動產出新聞稿件已經不是什麼新鮮事,但記者們請注意,最近台灣也有網站開始用 AI 寫新聞了!以 PTT 鄉民熱門用語「記者快抄」為名的網站,近日啟用 AI 寫新聞給記者「參考」,其背後演算法就是來自 PTT「創世神」杜奕瑾所創辦的台灣人工智慧實驗室(AI Labs)。記者快抄的網站簡介由該「AI 實習記者」為第一人稱撰寫,自嘲自己只是個從邊緣專案(Side Project)中發掘出的員工,2017 年 7 月自某台蘋果筆電誕生,就此展開實習記者生涯。AI 實習記者主要工作內容是隨時注意 PTT,將熱門文章寫成新聞草稿,一切都是為了要「拯救記者過勞、避免記者眼睛脫窗」,實在很貼心啊。這自稱沒有肩膀的 AI 實習記者,就這麼擔下如此重責大任,辛苦寫稿方便記者們取材。目前網站整體設計頗陽(ㄐㄧㄢˇ)春(ㄌㄡˋ),文章產出量還不多甚至有重複,內容主要來自 PTT 八卦版、電影、表特、NBA 板等熱門文章。既然該 AI 實習記者提到自己具有寫稿潛能,就來看看它的文章品質如何。▲ 「記者快抄」網站首頁。AI 產出的文章標題,某些會套用特定用語如「大哉問!」、「瘋了!」,再搭配一張解析度超低的圖,風格類似內容農場;文章內容撰寫模式也大多有跡可尋,像是以「一篇標題寫著『XXXXXX』的文章」為開頭,接著引述原文作者的話「根據作者○○○表示」、「帳號名為○○○的網友說」,然後再引用網友回覆「鄉民表示……」、「根據批踢踢網友○○○表示……」等等,文章大致可讀可理解,但撰寫方式、文句詞彙變化不多。另外,也發現當中比較有趣的寫法。以〈感覺萊恩雷諾斯運氣真的不好〉一文為例,文章第一段寫法令人一頭霧水:「其實是電視上又重播雷諾斯跟傑夫布里吉的,下去的潛力(以下防雷),像戰警的替身是金髮美女跟華人老頭,派原來是隱藏多年身份的惡鬼,正的目的是降魔局中的魔杖等等,但為什麼看完還是覺得普普,看完整個覺得有點虎頭蛇,像狡兔計劃前半段諜對,諜的段落,T1000 先生拷問丹佐華盛頓。 」這段內容不但有漏字,還有標點符號誤標等情況,進一步對照 PTT 原文後發現,排版可能使 AI 無法準確判讀內容。▲ 〈感覺萊恩雷諾斯運氣真的不好〉原文。(Source:PTT)杜奕瑾為推動台灣發展 AI 領域,辭去微軟(Microsoft)職務回台創辦 AI Labs,號召 AI 人才加入並發揮軟硬體技術實力,積極朝 AI 領域實現創新。目前看來,記者快抄很可能只是 AI Labs 用來測試練兵的平台,儘管文章產出品質有待改進,其趣味性仍成功引起話題。(圖片來源:記者快抄)延伸閱讀: 杜奕瑾:台灣拚 AI 不需跟隨別人腳步,應勇敢追夢創造體驗 PTT 創世神杜奕瑾離開微軟,回台設立 AI 實驗室
繼 6 月底偕新創專案「Deeplearning.ai」回歸人工智慧圈後,深度學習領域權威吳恩達再丟出一大目標:利用 Coursera 開放課程培訓出百萬名 AI 專家,落實他對人工智慧普及的願景。吳恩達 2011 年在 Google 利用深度學習理論(Deep Learning)建立了 Google Brain,為全球最大規模的虛擬神經網路;2014 年加入百度,任職其間讓百度在語音辨識、無人駕駛、圖像辨識等方面都取得許多技術突破;2017 年 3 月 20 日宣布自百度辭職後時隔 3 個月,帶著一個名叫「Deeplearning.ai̍」的專案回歸人工智慧圈,當時各界對吳恩達新業務的定位眾說紛紜,最可信的說法之一是實現他之前的允諾:讓人工智慧盡可能普及。如今,吳恩達在接受 MIT Technology Riview 編輯 Will Knight 訪問後給出這個答案:培訓百萬名人工智慧專家是首要目標。他說,領航的科技企業已利用人工智慧建構出更優化的網路搜尋引擎、線上廣告、地圖指引、支付系統等,並創造出更龐大的收益,但一家公司無法囊括所有工作,唯有讓人們擁有人工智慧的知識並試著使用工具,才是節省人力時間、發揮更高效率的解決之道。因此,他打算推出的第一個計畫就是透過 Coursera 開出深度學習領域的課程,將於 8 月 15 日起開放,稍早前吳恩達已在推特上為該系列課程推文。 Want to break into AI? You can learn Deep Learning from new deeplearning.ai courses on Coursera: https://t.co/tzc4Ci2N9C — Andrew Ng (@AndrewYNg)...
機器學習為 AI 人工智慧發展重點領域,而深度學習做為機器學習其中一環,近年來應用於影像辨識發展最為快速且突破最大。Google 研究團隊產品經理、醫學博士彭浩怡(Lily Peng)在 8 月 8 日活動中,說明 Google 深度學習應用於醫療領域的成果,尤其在診斷糖尿病視網膜病變、癌症轉移等方面已有進展。深度學習網路提升影像辨識能力彭浩怡指出,深度學習隨著真實數據資料量大增、運算能力更為強化,近五年來成效相當顯著,而神經網路也獲得廣泛應用,在解決視覺、語言辨識與理解等問題上,比其他方法的表現更好。他提到,深度神經網路(Deep Neural Network,DNN)的影像辨識精準度不斷提升,2015 年更已達到與人類相同的影像辨識水準。▲ 深度神經網路的影像辨識準確性,已於 2015 年達到人類辨識水準從過去所採用的傳統電腦視覺來看,若要建構熊貓分類器,必須要經過「特徵工程」(feature engineering)過程,得手動輸入所有熊貓相關特徵,不僅分類費時且成效不高;如今透過卷積神經網路(Convolutional Neural Network,CNN)可大幅提高影像辨識效率,只要提供電腦大量熊貓及非熊貓圖片,各約 5,000 張以上愈多愈好,卷積神經網路會自行學習辨識熊貓。相較於過去傳統電腦視覺著重特徵工程,卷積神經網路更偏重在準備資料,進行模型架構(Model architecture)及數據優化(Numerical Optimization)兩方面。醫療影像辨識應用深度學習在影像辨識領域應用相當廣泛,彭浩怡和研究團隊運用 Google 自家開源機器學習系統 TensorFlow 架構進行機器學習研究,進一步將技術應用在醫療領域判讀醫學成像,包括診斷糖尿病視網膜病變、乳腺癌腫瘤轉移等。彭浩怡指出,糖尿病視網膜病變是全球失明人數攀升的主因,目前有 4.1 億糖尿病患者都有視網膜病變的風險,但其實這是可以預防的。視網膜眼底經特殊相機拍攝後,必須由專業眼科醫生判讀影像加以分級,不過,有些地區如印度因眼科醫生嚴重短缺,加上其他因素導致 45 %病患在診斷前已失明,對於可全面預防的病變來說,這樣的結果著實令人沮喪。身為醫生的彭浩怡為改善現狀,與研究團隊著手研究如何將深度學習應用於視網膜影像判讀,並與印度當地夥伴溝通合作。Google 研究團隊採用 26 層卷積神經網路,創建出具有 12.8 萬張視網膜眼底影像的開發數據集(Dataset),透過 54 名專業眼科醫生判讀分級並建立模型,進而訓練模型判讀視網膜眼底影像,達到如同專業眼科醫生般判讀視網膜病變等級的能力;接著也進一步開發辨識工具,只要將圖像拖曳至系統便能得出診斷結果,現正於印度當地醫院進行臨床實驗。目前試驗結果顯示,演算法判斷結果與專業眼科醫生的診斷結果呈高度一致性。 ▲ 以深度神經網路判讀視網膜眼底圖像,建立模型後開發辨識工具 Google 深度學習另一應用是判讀癌症組織切片。彭浩怡表示判讀病理切片並不容易,以乳腺癌切片為例,每 12 人當中就有 1 人可能被誤診,其他癌症也有遭誤診的情況,這是因為病理切片上可見的生物組織資訊龐雜,每個切片在 40 倍放大後約有 100 億畫素(10 Gigapixels),相當於 1,000...
「圍棋上帝」AlphaGo 在戰勝柯潔之後便宣布退役,成為圍棋界難以逾越的一座高峰。而其締造者 DeepMind 公司早就為人工智慧準備了下一個目標:《星海爭霸 II》(StarCraft II)。《星海爭霸 II》是由暴雪娛樂(Blizzard Entertainment)在 2010 年推出的即時戰略遊戲,遊戲劇情主要講述在遙遠未來,一場圍繞銀河系中心的種族之戰。由於遊戲極其考驗玩家對資源的營運策略,因此被視為 AI 研究的突破點之一。DeepMind 科學家奧利奧爾‧溫雅爾斯(Oriol Vinyals)曾是頂級《星海爭霸》玩家之一,他曾提出這個觀點:玩《星海爭霸》的 AI 需要有效利用記憶力,能進行長期戰略規劃,並根據新資訊不斷調整。如果我們開發的 AI 系統能掌握如此複雜多變的技能,那麼最終這些技術也將用於服務現實世界。因此,早在 2016 年 11 月,DeepMind 就宣布與暴雪娛樂合作,將針對《星海爭霸 II》展開一連串研究實驗。到了 2017 年 8 月 9 日,暴雪與 DeepMind 公開這個專案的初步研究成果,將開放《星海爭霸 2》為 AI 研究環境。這個人工智慧環境包將包括: 在遊戲中為開發者和研究員加入人工智慧 API,並且首次支援 Linux 環境。 新增一個匿名遊戲重播資料程式庫,並且在未來幾週裡,遊戲重播資料將從 6.5 萬份增加到 50 萬份。 加入 DeepMind 開源工具集 PySC2,讓研究員可以輕鬆呼叫暴雪底層的功能 API。 新增一系列 RL 迷你遊戲,讓研究員測試 AI 在特定工作下的效能。 ▲...
長期以來,當品牌商在社群媒體上被提及時,搜尋熱度往往也會隨之增加。但品牌商一直缺乏一種可讓受眾以簡單方式搜尋 Logo 或產品圖片的能力。原 SaaS 巨頭 Salesforce 最新推出的 Einstein AI 工作室,就是想為品牌商解決這一難題。據外媒報導,Salesforce 9 日推出 Einstein Vision Social Studio,可為行銷人員提供一種在社群媒體上搜尋和品牌有關圖片的功能。產品運用 Einstein 專案的 AI 演算法,包括 Einstein 影像分類和影像辨識技術。同時還使用視覺搜尋、品牌偵測及產品辨識等功能,利用 Einstein 目標偵測可辨識影像中的對象,其中還包括對象的類別與數量。Social Studio 是 Salesforce 今年整合 Einstein 專案的幾個領域之一,在社群媒體分析方面,影像辨識特別有價值。據 Deloitte 預測,去年全球共在網上分享和儲存 2.5 兆張照片。外媒表示,Einstein Vision 社群工作室目前可用在 Twitter,後期會逐漸擴及其他社群平台。產品經過培訓後,可為行銷人員提供 4 種類別的影像程式庫,可辨識 200 萬個品牌 Logo、60 個使用場域(如機場等)、200 種食物和 1 千個物體。這些影像程式庫足以滿足許多公司的需求。不過,目前產品第一版還無法提供自訂功能。如果有品牌商 Logo 或物品未被影像資料庫涵蓋,需要等高階版出來才能自訂內容。Salesforce 的社群和廣告產品行銷副總裁 Robert Begg 對此表示,透過和行銷人員溝通,發現整個社群都在往視覺媒介靠攏。「在 Twitter 上,如果你開啟一個清單或資訊流,你會發現,影像或影片已占大部分內容。行銷人員需要一些 AI...
矽谷的億萬富翁 Facebook 創辦人馬克·祖克伯(Mark Zuckerberg)和特斯拉創辦人伊隆·馬斯克(Elon Musk)罕見地公開嗆聲,後者多年來一直是人工智慧威脅論的主要支持者,祖克伯對這態度表示質疑,遭到馬斯克回擊,他認為祖克伯對於人工智慧知之甚少。2017 年 7 月 24 日祖克伯在自家後院直播時,回應了網友的問題,他在影片中直接向馬斯克提出質疑,為何馬斯克創辦如此多頂尖的科技公司,卻對人工智慧的看法這麼負面。多年以來馬斯克在不同場合多次表態對人工智慧威脅人類生存的擔憂。2017 年 7 月 25 日馬斯克在個人 Twitter 上回應了祖克伯的質疑,他認為後者對人工智慧的了解非常有限。馬斯克擔心由人工智慧驅動的機器人會威脅人類的生存,2014 年時他還表示人工智慧比核武器威脅更大。Facebook 的直播中,一位剛看過馬斯克有關人工智慧威脅論訪談的網友,詢問祖克伯對這觀點的看法。 祖克伯表現非常樂觀,他認為用技術創造新的產品並不斷升級,特別是加入人工智慧之後,世界會變得更好。這看法可能與他本人的樂觀性格有關,同時他也無法理解那些將人工智慧的應用前景形容成世界末日的人,消極的觀點可說是很不負責任。他相信人工智慧能讓汽車更安全、拯救生命,應用在醫療領域能提升診療效果。每當他聽到有人說人工智慧會傷害人類時,覺得技術應用方面總是有好有壞,這取決於人如何構建它,開發者需要更關注技術應用在什麼領域,了解如何使用它。當人們在爭論是否應該管理人工智慧的研發時,這反讓人很困惑。 I’ve talked to Mark about this. His understanding of the subject is limited. — Elon Musk (@elonmusk) 2017年7月25日馬斯克在回應祖克伯時表示,他們之間已有過溝通,他認為祖克伯對人工智慧這議題的了解非常有限。兩個領域不同的億萬富翁,但各自在不同的領域上發展人工智慧相關的技術,人工智慧現在還在起步階段,要談到會不會毀滅人類或許尚嫌太早,不過人類科技發展的歷史就是需要不同想法的人相互制衡,或許大家都朝著自己的方向努力,我們的後代子孫就可以同時享受人工智慧的便利,但又不需要擔心潛在的危險。 Elon Musk fires back at Mark Zuckerberg in debate about the future: ‘His understanding of the subject...

