多數人在使用語音助手相關產品時,都曾經碰過聽錯指令的事件,但美國最近發生了一起事件,讓人覺得科技產品有時候的判斷出錯,或許也不都是壞事。CNBC 報導,這個事件發生在美國新墨西哥州,一個家庭裡的智慧音響因為聽錯了用戶的語音指令,而撥打了 911 報警,歪打正著的避免了一起家庭暴力事件。當時 Eduardo Barros 正和他的女友爭吵,Barros 在爭吵中拿起槍威脅女友,詢問她「是不是報警了」時,智慧音響理解為「報警」的請求而撥打了電話。在這之後,警方在電話中聽到爭吵的內容,便派遣談判代表與特警隊前往,長時間對峙後,Barros 最終遭到逮捕。雖然 Barros 的女友在過程中受了些傷害,但女友的小孩則安然無恙。警方認為,情況本來可能會更糟。州警長 Manuel Gonzales 表示,智慧音響的這個舉動「可能有助於拯救生命」。但這並不表示警方會公開歡迎智慧音響或其他類似的系統。因為儘管這樣的救援情況可能再次發生,且理論上能在刑事案件中當成證據,但音響也可能對其他聲音做出反應,像是電視節目或影片。這是未來執法單位必須面臨的情況,雖然意外撥出的報警電話並不是什麼罕見的事,但可以想見的是,未來這樣的情況會更常發生。 Smart home device alerts New Mexico authorities to alleged assault A smart speaker alerted the cops to an assault after a man allegedly threatened to kill his girlfriend (首圖為示意圖,非本次事件機種;來源:Flickr/NDB Photos CC BY 2.0)
「我覺得,我覺得,我覺得……Facebook 的聊天機器人好奇怪。」不知道的還以為說這話的人結巴了,但這其實是 Facebook 的 AI 在實驗室裡的真實對話風格,原對話甚至更詭異……這些語言並不是研究人員設定的,所以很多人認為是 AI 自創的一種語言,但《大西洋月刊》(The Atlantic)採訪了語言學家 Liberman,他從語言概念分析,認為這些對話是否屬於語言還有待考究。最近,Facebook 人工智慧研究實驗室發生了一件讓人意想不到的事情:訓練聊天機器人互相談判能力的研究人員實現了一件事情:機器人用一種非人類語言自由「抬槓」。為了追蹤記錄機器人的對話,研究人員不得不調整設備模式,限定機器用人類可以理解的語言對話。(他們堅持想讓機器人使用人類語言,是因為他們希望最終這些機器人能夠與使用 Facebook 的人類用戶交流)。之前寫到這點的時候,很多人似乎有點焦慮和疑惑。機器創造自己的語言確實很酷,但這難道不是很可怕嗎?很多人應該都挺好奇機器人的語言實際上長什麼樣子。下面是一段在 Facebook 上看到的機器人談判對話:整段對話不僅看起來沒什麼重點,機器人說的話也不像在談判。無論怎麼說,Alice 的立場都堅定不移。而且,讓人不解的是,人工智慧實驗室的發言人告訴我,Facebook 數據顯示,類似這樣的對話有時也會出現機器人之間談判成功(有時候研究人員調整了模式,機器人也會用一些糟糕的談判策略──即使按人類的標準來看,它們的對話還存在爭議)。AI 間的「密語」這種現象的某種解釋是將其看做機器人之間的「密語」(cryptophasia)──原指一種只有雙胞胎之間能相互理解的祕密語言。也許你還記得 2011 年 YouTube 上一個很紅的影片,一對雙胞胎小孩嘰嘰喳喳以我們聽不懂的神祕語言對話。網路上關於這對雙胞胎說的是否是語言,或只是在咿咿呀呀地模仿正常語言的有諸多討論,很多語言學家認為,這兩個小孩只是在交際,發出的聲音並沒有什麼特定含義。不過,Facebook 的研究人員表示,這些聊天機器人之間的對話似乎確實形成了一種語言。其他 AI 研究人員也說,他們觀察發現機器可以開發自己的語言,而且語言結構流暢,有一定的詞法和句法,但這些詞彙和句子在人類看來並不是全部都有意義。今年稍早,非營利 AI 研究公司 OpenAI 的電腦科學家在研究知識庫 arXiv 發表了一篇論文,預印本中談及當語言溝通不可用時,機器人如何學會用抽象的語言溝通,這些機器人又如何轉化人的手勢或指向等非語言溝通(機器人不需要透過實質性的動作來完成非口頭溝通,只需要利用視覺感應形態來實現)。最近由喬治亞理工學院、卡內基美隆大學、維吉尼亞理工學院暨州立大學的研究人員共同發表的另一篇論文描述了一個試驗:兩個機器人可以透過討論和對顏色及形狀分配價值來發明自己的通訊協議──換句話說,研究人員親眼目睹了「機器人自動出現基礎語言和溝通,而且是在沒有人類監督的情況下!」這一研究工作意義重大。不僅可讓人類了解機器人之間的溝通方式,還很有可能揭開最初人類語言句法和行文結構形成的真相。語言的概念不過,退一步來看,這些機器人創造出來的真的是語言嗎?賓夕法尼亞大學的語言學教授 Mark Liberman 表示,「我們必須首先承認,『語言』這個詞的使用方法並不是語言學家說了算,不過,語言學家對人類語言的特性以及這種自然類別的界限,顯然有自己的觀點和看法。」所以,Facebook 的聊天機器人是否創造了自己的語言,其實取決於我們所謂的「語言」究竟是何概念。例如,語言學家往往認為,符號語言和方言是真正的語言──而不只是真正語言的相近概念,但「肢體語言」,Python 及 Java 這類電腦語言並非真正的語言,儘管我們也會稱呼它們為「語言」。Liberman 的問題因此變成了:Facebook 聊天機器人──我們稱之為 Facebotlish──語言是否會成為一種新型持續使用的語言,或者說,未來的英語呢?(不知道有沒有讀者想起前段時間的類人機器人 Sophia,她上英國訪談節目《早安!英國》時說的那句「我要找個有自我意識的男朋友……我會毀滅地球……」已經讓人細思極恐了,這種暗號式的密語感覺更可怕。)但 Liberman 教授認為,「儘管沒有足夠資訊可對此問題下判斷,但答案恐怕是否定的。首先,這種語言完全基於文本,而人類語言基本上還是口頭和手勢表達,文本只是後來人為附加的。」從更多角度來看,Facebook 聊天機器人的智慧程度還遠未達到人類水平。他還說,「現在看來,1970 年代所謂『專家系統』風格的 AI 程式放到現在只能算是老古董,相當於 17 世紀用發條驅動的自動化裝置。而且我們可以肯定的是,幾十年之後,現在的機器學習...
隨著技術發展,人工智慧(AI)已應用在做一些簡單決定,應用領域與複雜度也在持續拓展中,未來 AI 可能會在自駕車上做出攸關生命的抉擇,但 AI 工程師面臨一個問題:他們通常不知道自己的創作在想什麼。機器的神經網路華爾街日報報導,AI 難以被定義,之所以會有這樣的現象,和神經網路的使用有關。當研究人員開始透過「學習」訓練機器,將經驗轉化為模擬神經網路的系統,產生出的結果不是代碼,而是由不可讀、數百萬甚至數十億的人造神經元,給出 AI 工程師賦予任務的答案。多數研究人員都同意,認識 AI 是一項迫切的挑戰。如果我們不知道人造思維如何運作,又該如何確定它抱持偏見或預測錯誤的結果?我們不會知道 AI 是否有「種族歧視」,或是無法預期的思維讓自駕車可能發生事故,或許有機會能辨別 AI 對事物是否抱持著偏見,那可能會是 AI 做出無數個決定之後的事了。去理解 AI 什麼時候可能會失敗或出現意外行為,是非常重要的,畢竟我們都不希望關鍵時刻出現任何意外,或是聽到「很抱歉,但我恐怕不能這麼做」。AI 不帶偏見?Pinterest 的軟體工程師 Tracy Chou,在公司內專門負責機器學習項目,他認為 AI 發展中很大的問題在於,多數人都把 AI 或機器學習想得過於「中立」。「多數人都不了解的是,是人類設計了這些 AI 模型,也是人類選擇要用什麼數據來訓練機器。」華爾街日報試著用一個最簡單的例子來解釋:Google 翻譯。當你在 Google 翻譯上輸入「醫生」,要求翻譯成葡萄牙語時,總是會得到陽性名詞 médico,而非陰性名詞的 médica;輸入「護士」時,則會得到陰性的 enfermeira,而非陽性的 enfermeiro。聽起來有些陰謀論,但這其實只是用來訓練翻譯系統的文學體系,舊有的偏見所導致的自然結果。類似的事情其實經常發生,在研究人員並未注意到的情況下,AI 很有可能在無意中成為偏見的代理人。和人類不同的是,我們不能直接詢問機器「為什麼這麼做?」儘管 AI 在限定的環境條件下能表現十分出色,但談到內省(introspection)的能力,AI 的程度可能與蟑螂差不多。如何解讀 AI 的思考▲ 研究人員還未完全弄懂 AI 的思考模式。 應該如何解讀人工智慧?這是一個困難的問題,就連美國國防高級研究計畫署(DARPA)都在提供資金給相關研究人員,希望能夠解決這個問題。在機器學習中,工程師先是編寫了類似原始大腦的神經網路,再透過給予大量數據來進行訓練,機器則從中學習辨別與理解,就像大腦運作的方式一樣,也因為如此,AI「思考」的方式人無法理解。這個困境工程師稱之為「可解釋性」問題,而神經網路則稱為「黑盒子」──你可以刺激並觀察,但無法理解內在。身為現今最知名 AI「AlphaGo」的開發者,Alphabet 的子公司 DeepMind 研究團隊也希望解決這個問題,因此決定用一個全新方式來了解 AI:就像對待人類的孩子。這並不是一個比喻,DeepMind 的研究科學家 David Barrett 表示,團隊正在使用和心理學家用在孩子身上的認知心理學技術及測試,來試圖了解 AI...
thestreet.com 報導,Jefferies 分析師 Mark Lipacis 10 日將人工智慧(AI)晶片大廠 NVIDIA Corporation 目標價自 140 美元調高至 180 美元。Lipacis 指出,NVIDIA 在推動深度學習應用生態系統競賽中居於有利地位,將會是下一個運算結構改變的主要受惠者。MarketWatch 10 日報導,Lipacis 認為科技已出現結構性轉變,大約每 15 年就會出現一次劇烈轉變的運算典範現已轉移至平行運算/物聯網(IoT),目前正處於第 4 次結構轉變的開端,原先在數據中心晶片領域居於領先地位的英特爾(Intel)將因 NVIDIA 的崛起而面臨最大的衝擊。他認為 NVIDIA 目前擁有數年的領先優勢。根據 FactSet 的統計,去年底分析師給予 NVIDIA 的平均目標價為 93.30 美元,目前已升至 135.16 美元。Lipacis 將英特爾投資評等自「觀望」降至「表現不如指數」,目標價自 38 美元大砍至 29 美元。此外,他也將 Xilinx Inc.、Cavium Inc. 投資評等調高至「買進」。CNBC《Mad Money》節目主持人 Jim Cramer 6 月 9 日指出,有人將 NVIDIA 拿來跟英特爾輝煌時期相提並論。英特爾自 1987 年的...
福斯(Volkswagen)為擴展深度學習(deep learning)領域的能力,6 月 27 日宣布與人工智慧(AI)晶片開發商輝達(Nvidia)建立戰略夥伴關係。福斯集團資訊長 Martin Hofmann 表示,AI 是福斯集團數位化未來的關鍵,福斯想自行開發和部署高性能 AI 系統,這就是為何公司現正強化必要的專業知識,與 Nvidia 的合作將是朝這個方向邁出重要的一步。Nvidia Corporation 執行長黃仁勳表示,AI 是當代最強大的技術力量,Nvidia 的深度學習解決方案將可讓福斯把數據中心的龐大資料轉化成為有價值的見解並進而改造事業。福斯已在自家數據實驗室成立了新創企業支援計畫,未來將為開發車用機器學習、深度學習應用的國際新創企業提供技術與財務支援。福斯、Nvidia 將自今年秋季起選出符合資格的 5 家新創企業。(本文由 MoneyDJ新聞 授權轉載;首圖來源:福斯)延伸閱讀: MIT 50 家最聰明企業:NVIDIA 榜首,鴻海首度獲選 人工智慧在 2030 年創造的全球 GDP,將超過印度與中國 GDP 總和
想成為矽谷最成功的 CEO,需要哪些素質?可能不少人腦海裡都會蹦出高學歷、有遠見、有領導能力、會任人唯賢,但其實最必要的素質是謹慎。根據 CNBC 報導,招聘公司 Paysa 最近利用 IBM 超級電腦 Watson 做了個調查分析,指出「聰明才智」是科技頂尖公司大頭必備的最重要技能,而「謹慎」也不可少。CEO 個人素質會對公司產生很大的影響。比如,冒險可能帶來更多機會,謹慎可能避免付上昂貴的失敗代價;想像力可以促成驚人的技術突破等。Watson 給這些矽谷大頭打了分數,弄了個小排名,我們選其中幾個 CEO 要素與大家分享。矽谷最謹慎的 CEO 是特斯拉、SpaceX 馬斯克。看到結果還是很驚訝,馬斯克給人一慣的印象是喜愛冒險,擁有巨大野心。他的各種大膽想法,讓人很難與謹慎聯繫起來。在謹慎方面,其餘排名如下:微軟 CEO 納德拉第三,比爾蓋茲第五,看來微軟的領導層都是謹慎派。蘋果庫克第八,Google 母公司佩吉和 Facebook 祖克柏墊底。與謹慎有些對立的決斷力排行榜,馬斯克墊底。微軟 CEO 納德拉第一,比爾蓋茲第二。看來微軟 CEO 可以快速謹慎而堅定地下決策。矽谷最有想像力的 CEO 是蘋果庫克,儘管從庫克上任後,蘋果創新乏力的觀點甚囂塵上,但庫克對外界的質疑一直保持低調。他在接受《麻省理工科技評論》採訪時首次表示,蘋果不是沒在開發相關技術,只是不想多討論,蘋果只討論即將上市銷售的技術。或許從想像力方面,我們還可以期待庫克會帶來驚喜。第二位是亞馬遜貝佐斯,微軟的兩位領導人比爾蓋茲和納德拉分列第七和第十一,看來謹慎與想像力有點不可兼得。祖克柏排名第十再度落後,從另外幾個領導特質來看,雖然身為矽谷最年輕和最富有的 CEO,但祖克柏還是稍遜於老前輩。Watson 的排名是基於資料得出的。Paysa 收集上述矽谷大頭的演講全文、出過的書、接受的採訪等資料,並利用 Watson 人格洞察分析認知計算應用程式介面(API)來分析。根據 IBM Watson 的說法,人的性格可以根據人的撰寫、說話和長相特徵來擷取,如果想要知道一個人性格如何,完全可藉助這種 AI 技術,得到更準確的結論。利用 AI 來判斷個人性格,相當於一場智慧面試。現在已經有不少大公司在招聘時使用 AI 系統,跨國零售商巨頭聯合利華就在 AI 招聘中嘗到甜頭。聯合利華與數位人力資源服務提供商 Pymetrics 和 HireVue 合作。打破以往校園宣傳、收履歷、面試的招聘方式,將招聘過程數位化,如果候選人可透過 AI 系統一系列考驗,就能成為公司一員。候選人透過 Facebook 或 LinkedIn 線上提交履歷,隨後會要求職者在 Pymetrics...
許多研究人工智慧(AI)的企業都在透過深度學習來教會機器人辨識圖像,卡內基美隆大學(CMU)的研究團隊則選了另外一種方式,他們試著教導機器人透過觸摸來認知世界,就像嬰兒一樣。TechCrunch 報導,在每天 8 小時實驗期間,這個名為「Baxter」的機器人只有一個任務要進行──從桌上隨機抓取物品,它的動作緩慢而笨拙,即使如此,這一個月期間也已經進行了 5 萬次的抓取動作,Baxter 正在透過觸覺反饋和嘗試錯誤來學習。研究團隊在發表的論文中,解釋了他們如何透過讓機器人反覆接觸物品,來提升對物品的認知,「以嬰兒來說,他們透過用手推、戳物品、把東西放進嘴裡或扔出去來學會認知表徵,我們也希望達到這樣的目標,所以在 Baxter 的程式平台中建構了類似的模式,讓它們在桌面環境上戳、抓取並觀察物品。」為了說明學習觸摸的重要性,研究室助理 Dhiraj Gandhi 用 1970 年代中期英國的一項實驗做為例子,當時研究人員對兩隻貓進行認知實驗,其中一隻就像平常一樣生活、與世界接觸,另一隻貓則只能夠觀看,不被允許接觸物品,最終只有被允許與環境互動的學會爬行,只能觀察的不能做出同樣舉動。而在實驗中,Baxter 逐漸地展現出對物品認知的提升,當機器人認出熟悉的物品時,平板顯示螢幕上會露出「微笑」,並且抓取物品放入適合的籃子;如果對物品不熟悉,螢幕上則會露出「困惑」的表情──研究人員並不擔心,他們相信沒有什麼是另外 5 萬次抓取練習學習不了的。這項研究改變了傳統的機器視覺學習模式,不同於以往系統透過已經輸入的標籤去判斷、尋找物品,Baxter 是透過觸摸來自我學習認知,Gandhi 解釋,過去圖像和標籤之間並沒有互動,在視覺系統中只有被動數據可以收集。「我們想要的是與物品時可以獲得活動的數據,並透過這些學習對其他視覺任務有用的功能。」Baxter 的系統中有著類似 Kinect 的 3D 鏡頭,將收集到的視覺與觸覺訊息發送到深層的神經網路,並在 ImageNet 中與圖像交叉參考。團隊在其中意外發現,收集的觸摸數據讓 Baxter 的辨識精準度,較其他只使用圖像辨識的機器人高出 10%,團隊認為這非常鼓舞人心。儘管目前研究還處於初期階段,但團隊十分看好未來的發展,Gandhi 表示,他認為結合視覺與觸摸學習的機器人可以用於揀選分類,就像 ZenRobotics 開發的類型,未來能為垃圾進行分類回收,這在現實中是一個非常大的挑戰,「當然,我們目前還在嬰兒學步呢。」 Teaching robots to learn about the world through touch (首圖來源:shutterstock)
小時候成績跟不上,爸媽往往很著急地找老師幫你補課。現在蘋果也要為剛滿 10 歲的 Siri 找個家教老師了。蘋果最近發表一則關於 Siri 的招聘資訊,據科技網站 9to5mac 報導,蘋果正在招募一名「Siri 事件專家」(Siri Event Maven),這個專家將充當 Siri 的私人顧問,讓 Siri 對焦點事件和潮流文化有更敏銳的觸覺。Siri 事件專家需要確保 Siri 對所有非傳統節日、時尚潮流、文化娛樂等資訊都有充分了解,對所有使用者可能會問的問題,都能回答出最新最滿意的答覆;同時 Siri 事件專家還要和 Siri 專案工程師和設計師合作,一起提高 Siri 的人文感知能力。(Source:蘋果)到底怎樣才可以成為 Siri 的「私人家教」,不妨先看看蘋果的職位要求: 認為自己是專家、潮流達人或是酷斃的人,這是必須條件。 擁有使用基本網路工具的經驗。 注重細節且能質量並重完成工作。 出色的組織和策劃能力。 是不是覺得這些條件自己都符合呢?蘋果這個招聘要求相對廣泛,看完之後似乎不知道這個職位具體要做什麼,蘋果也舉例說明到底要教 Siri 什麼:比如要讓 Siri 辨識出 5 月 4 日(May the Forth)這句話背後的另外含義,這句話與《星際大戰》中的經典台詞「願原力與你同在」(May the force be with you)讀音相似,因此 5 月 4 日也是星戰迷的「星戰日」。如果在中國,Siri 要知道的可能就是雙 11 光棍節之類的節日了。蘋果稱就這個職位需要緊跟焦點,透過社群媒體和網路搜尋找出 Siri...
AI 是相當熱門的話題,各大科技廠無不投入資源進來,想要靠 AI 幫助他們的業務,像是機器學習教程式分辨物品。而昨日 (6/29) Facebook 人工智慧研究院 (Facebook Artifact Research, FAIR) 院長 Yann LeCun 博士在臺大進行專題演講,題目是 Deep Learning and the Path to AI,對象為學院中的人談的是領域內常用的技術,竟然場地爆滿,而且開 Facebook 直播時人數破千。LeCun 從最基本的部分,解釋學界常用的機器學習技術,像是監督式學習 (supervised learning)。除了 AI 用到的技術之外,LeCun 講到 Facebook 研發的技術,就真的實際用到網站上了,如用戶上傳照片後,識別裡面的人物,甚至猜測裡面的人是誰。其猜測的結果精確度相當高,往往還會建議用戶朋友貼標籤,這幾年的訓練成果,看來讓不少使用者會嚇一大跳,看到辨識的成功機率相當高。以 Facebook 用戶的活躍程度,每天平台上會出現 10 億到 15 億之間的照片量,如何分類就是門學問了。前面提到識別照片中用戶之外,AI 也得辨識照片中出現的物品。其實每當用戶上傳照片,AI 都會運作把照片中辨識出來的物品或人標示在相片上面。 ▲ Facebook 不只辨識人物加上建議標籤,連照片中的物品也會辨識歸類。而在 AI 玩圍棋的話題以 AI 戰勝人類作結之後,電腦遊戲成為 AI 新的挑戰目標。目前有用 Torch libray 驅動的 TorchCraft 嘗試用...
現在科技界最為人談論的議題,人工智慧和自動駕駛相信都是其中之一,這兩項技術都會改變我們未來的生活。最近美國一間設計公司就利用人工智慧和自動駕駛技術,設計了一款全新的行動醫療概念服務,一個能自動行駛的人工智慧診所。展示這個概念的 Artefact Group 設計了一部能自動行走的行動診所小車,病人可以預約,行動診所就會在指定時間到達,病人走進去就可以看病。行動診所內並沒有醫生看診,但內建很多監測儀器,配合 App 收集病人的身體變化和人工智慧診斷,簡單的病症可在車上即時診斷和開藥。假如病人的病情屬嚴重或危急,行動診所內有螢幕,可跟醫生或專家遙距面談問診,即時提供更專業的意見。可惜的是,Artefact Group 的設計到正式推出還有一段距離,要多方面技術同時發展和配合才有望成真。 Self-driving AI clinic reimagines healthcare for the 21st century (本文由 Unwire HK 授權轉載;圖片來源:Artefact Group)

