2011 的智力問答比賽 Jeopardy 讓人們記住了人工智慧系統 Watson。如今,人工智慧正在興起,而 IBM 也不斷擴展著 Watson 的技能。它可以寫食譜、設計衣服、預測天氣,還能幫醫生診斷病情。最近,Watson 又面臨一項全新的考驗:對抗網路犯罪。據 Wired 網站報導,IBM 宣布了以人工智慧對抗網路犯罪的 The Watson for Cybersecurity 計畫。該計畫將幫助四十多個組織預防網路犯罪,也會幫助 Watson 獲得更多現實世界經驗。今年夏季,IBM 的研究員開始教授 Watson 網路安全的基礎知識,讓它學會分析和對抗網路攻擊行為。網路空間是龐大的,Watson 必須辨識哪些行為才是真正的威脅。它的優勢在於快速處理大量數據,而且,它還能夠結合結構化資料(具體的安全事件)與非結構化資料(安全白皮書、研究報告、部落格文章)。從秋季開始,Watson 每月閱讀 1.5 萬份安全文檔,還從圖書庫和即時新聞獲取資訊。不過,在語義理解方面,Watson 還是會出現一些錯誤。以 ransomware(勒索軟體)為例,Watson 認為它是一個地方。「我們的猜測是,某些城市的名字是『Ransom』,而且,大多數字典沒有收錄 ransomware 這個詞,」IBM 安全部門副總裁 Caleb Barlow 說,「我們認為,Watson 試圖搞懂這個常見詞是什麼含義,然後,它判斷那是一個地方。」當 IBM 的研究人員給 ransomware 註解後,Watson 才明白這個詞的含義。從這件小事上,我們可以看到人工智慧面臨的挑戰;同時,我們還看到,人工智慧系統能夠從試錯中不斷學習,而且,一旦學會某件事情,它就永遠不會忘記。「這就像是人類的學習過程。從小學、高中到大學,人們能做的事情越來越多。在擁有某個行業內的大量經驗後,人們又能做更多的事情。Watson 也將經歷同樣的過程。」Watson 不能替代人類,但是,它能夠分析事件並且按重要性排序,幫助人類更好更快地決策。Watson 也不可能永遠正確,但它能夠從錯誤中學習,發現人類未曾發現的東西。(本文由 愛范兒 授權轉載;首圖來源:IBM)
Amazon Go 令人驚豔的地方,就是你可以直接走進超市,選好貨品之後立馬離開,不用在收銀台前排長長的隊伍,等待結賬。甚至還莫名有一種從商店「搶劫」的快感。我們說,行動支付顛覆了既有商品交易方式,那麼這種「搶劫式」的 Amazon Go 甚至連「交易感」都消滅了。總之,人們被這種新奇的似乎隱含了某種黑科技的新型購物方式所吸引。不僅是普通人,就連史丹佛教授李飛飛、著名科技出版公司 O’reilly 創始人 Tim O’Reilly 都特地發推點讚。李飛飛:電腦視覺十分顯著和絕妙的應用!Tim O’Reilly:零售業的未來,我對此已經期待很多年了。Amazon Go的亮點用戶進入商店,穿過閘門的時候打開手機讓其辨識,這時手機裡的系統啟動,並隨時準備更新物品清單。令人驚豔的部分就是,在用戶拿走或放回物品的一瞬間,手機裡的系統會自動更新清單。最後,用戶拿著物品滿意地離開,手機自動扣款。這裡面到底有什麼黑科技呢?就官方發表的影片來看,技術亮點有 3 個:機器視覺、深度學習演算法和感測器融合。但僅有這幾個關鍵詞還是不夠的,雷鋒網遂向亞馬遜在職員工進行採訪,但是對方表示 Amazon Go 還屬於保密項目,公司要求不能對外透露任何細節。不過在 Quora 上,有一位名為 Brian Roemmele 的網友挖出了幾年前亞馬遜提交的兩份專利文件,裡面描繪的系統跟如今的 Amazon Go 非常相似。這兩份文件名稱為:「偵測物體互動和移動」(Detecting item interaction and movement)和「物品從置物設備上的轉移」(Transitioning items from the materials handling facility),兩文件分別於 2013 年和 2014 年申請。這兩份專利文件都描繪了十分龐雜的應用場景,包括:貨倉、船運、零售市場等,所以很多人當初在看到這份文件時,都以為這是亞馬遜為自己的倉儲系統量身定制的,不過今天一切真相大白。這兩份專利分別講了什麼?「偵測物體互動和移動」(Detecting item interaction and movement)這份專利的摘要是:用戶從一個貨架上拿起或放下一個物品,貨物管理系統可以偵測到這個動作,並且更新用戶行動裝置裡的清單。「物品從置物設備上的轉移,/(Transitioning items from the materials handling facility)這份專利的摘要是:物品被辨識,並且當用戶正在拿起物品時,物品自動與用戶發生關聯。當用戶進入或穿過一個「轉移區」(Transition Area),被拿起的物品將自動轉移到用戶,而不需要用戶有任何的輸入。總的來說就是,被辨識的物體與用戶發生關聯,能自動更新清單,並在「轉移區」進行自動交易(「轉移區」在 Amazon Go 裡指的就是商店的出口)。我們可以從下面一張圖裡,一窺 Amazon...
美國未上市晶片設計廠商科勝訊(Conexant Systems, Inc.)8 日宣布與亞馬遜(Amazon.com)攜手推出經 Alexa 語音服務(AVS)認證過的智慧家庭應用「AudioSmart 2-mic」開發套件,製造商、軟體開發商將可透過亞馬遜 AVS Raspberry Pi 計畫取得。上述開發套件配備科勝訊 AudioSmart CX20921 高效能免持聲控處理器,讓開發商可以輕鬆、迅速地打造出具備理想聲控使用者體驗的商品。ibtimes.com 8 日報導,科勝訊表示,上述解決方案可讓智慧喇叭、恆溫器、智慧燈炮、智慧電視等家用裝置具備聲控功能。科勝訊總裁 Saleel Awsare 形容亞馬遜開放讓其他廠商內建 Alexa 為「典範轉移(Paradigm shift)」。亞馬遜(Amazon.com)官網顯示,內建 Alexa 雲端聲控數位助理功能的 Echo 聲控揚聲器得等到 2016 年 12 月 22 日才有庫存。根據超過 46,000 名客戶的評論,Echo(內建 Alexa 雲端數位助理)獲得接近滿分的評價。(本文由 MoneyDJ新聞 授權轉載;首圖來源:Conexant)
英特爾今年將人工智慧視為下一個大成長的機會,卻購併兩家新創小公司,它們的計畫能否成功,關鍵在於服務。英特爾是生產晶片的半導體公司,但過去一年,英特爾卻是找研究工業工程,研究腦神經科學的專家幫英特爾轉型。11 月 18 日早上,本刊記者在西雅圖專訪了去年英特爾購併的兩家公司執行長,一位是 Saffron Technology 的執行長 Gayle Sheppard,另一位是 Nervana Systems 執行長 Naveen Rao。Gayle Sheppard 的本行是工業工程,「我創業的原因,剛開始跟人工智慧無關」,她說,她的家族在美國南方經營化工廠,剛開始工作時,她每天都在研究,怎麼樣找出最有效率的方法建廠,管理工廠。「我一輩子都在研究怎麼樣做出最好的決策」,她說,當時,她隨時都會檢視各種資訊,例如天氣,甚至外在的交通狀況,會如何影響建廠進度,像前一天如果下雨,第 2 天的進度可能就會放慢。她說,「我開始建立一個系統,檢視各種毫無關聯性,看來互不相關的資料」,十幾年下來,她和 MIT(麻省理工學院)的專家竟發展出一套方法,能教電腦學習人類的決策模式,譬如,學會判斷兩件事是不是相關,是不是有因果關係或相似性。她的邏輯是,當你不斷的「餵」資料給電腦,電腦學會判斷哪些是沒見過的可疑現象,哪些事發生之後,接下來會出現什麼狀況?曾有一次,佛羅里達州的執法單位追緝販毒集團,把來自 80 個不同來源的資料都交給她的系統分析,結果竟發現,原本看來無關的人,都「碰巧」在某個地方搭機,「碰巧」加入哪個俱樂部,幫菜鳥警察大幅縮短破案時間。AI 就是轉型的答案 要做出最高效能的人工智慧晶片她的系統,被視為是 IBM 人工智慧系統華生的勁敵,去年英特爾因此購併這家公司,變成進攻企業市場的武器。另一家公司的執行長 Naveen Rao 更特別,他擁有腦神經科學博士學位,能動腦部手術,拿到博士學位後,卻跑到矽谷創立人工智慧的新創公司。「我從高中就對人的大腦很有興趣」,他指著我的電腦說,「那時我就知道,人的大腦消耗的能量,相當於 20 瓦的電力,大概只有你的筆記型電腦的一半;但是,人腦的運算能力可比筆電強多了。」他把人腦當電腦研究,大學他拿到杜克大學的電機學位,在科技業賺到錢後,他又回到布朗大學念腦神經科學,他印象最深刻的事是,他替一個已經癱瘓 15 年的人,把他的腦波連上機械手臂,「他可以用大腦直接控制機械手臂,拿一杯水給他。」他回憶,那一刻,「他臉上又哭又笑,我永遠忘不了。」「我們對人腦的了解,還只有一部分,但我們已經可以用這些知識,重新設計更接近人工智慧的晶片」,他解釋,現在的矽晶片是用每個位元做儲存資訊的單位,他設計的晶片,系統架構卻像腦細胞一樣,是用一串電子元件記住一件事,「每個腦細胞都有運算和通訊的能力,我們的設計也是如此,但在其他競爭對手的系統裡,每個電路通訊和運算的能力卻是分開的。」他解釋,這種設計讓他的晶片要擴張規模時,就像把無數腦細胞串在一起,效能可以快速拉高。他更批評,現在市面上用來做深度學習的 GPU 晶片,「原本是做繪圖用,是因為研究人員的發現,才用在人工智慧上」。他認為,他設計的晶片才是專為人工智慧設計。今年,英特爾用超過 100 億元台幣買下他的公司,英特爾還將用他的技術製造新晶片,爭奪最高效能人工智慧晶片的地位。購併新公司,是英特爾轉型的重要一步,但為何把這兩家新創小公司,當成全球半導體一哥英特爾轉型人工智慧的重要武器?因為英特爾想在 PC 沒落之後,再創造下一個平台,英特爾不只是賣產品,而是經營一個結合硬體、軟體到標準的生態系統。英特爾的經營方式因此改變原有的模式,購併 Nervana Systems 後,英特爾將推出 AI 服務(AI as a service),計劃把 Nervana 經營成英特爾在 AI 領域的品牌。Saffron Technology 也是,這家公司原本就是軟體公司,英特爾計劃向企業推廣他們的人工智慧服務,看好從政府到企業,都適用這樣的新服務。現在,使用人工智慧技術的公司還是非常少,利用服務,英特爾可以甩開只專注賣晶片的對手,開拓全新市場。不只賣商品 還要打造新平台 目標:打進各式裝置市場英特爾還計劃用人工智慧,打進各式各樣的裝置市場,Naveen Rao...
你有沒有發現,日常生活中碰到的人工智慧虛擬助理都是女聲?從蘋果 iPhone 的 Siri 再到 GPS 導航系統,清晰穩定的女聲總能解決我們的大小問題,但為什麼都使用女聲呢? 從蘋果 iPhone 的虛擬助理 Siri 到日本機器人飯店中的服務生,在人工智慧系統的世界中不成比例都由女性人格佔據。究竟,為什麼蘋果的 Siri、微軟的 Cortana、亞馬遜的 Alexa 或是人們常常利用的 GPS 導航系統都是女聲呢? 深諳人機互動的印第安納大學電腦科學專家麥克多門(Karl Fredric MacDorman)說:「我認為這之中有個模式,但我不認為有個簡單的答案。」 ▲ 圖為配音員班尼特(Susan Bennett),她最著名的作品就是擔任蘋果 iPhone 中的 Siri 一角。(Source:The Jake Brown Show) 助理過去都由女性當 考量諸如 Siri、Cortana 和 Alexa 等虛擬助理的工作,過去似乎都由女性來擔當,像是幫忙安排會議、查找資訊還有和不同的單位溝通。 讓人覺得理所當然 「當你想到助理,你傾向將他們的聲音想成女聲,這與勞動被性別化和階層化有關,」美國華盛頓大學性別、女性和性向研究副教授哈貝爾─帕蘭(Michelle Habell-Pallan)接著說:「所以這不是剛好,在文化場域中有某些事物被拉到科技場域再複製,而且這是個循環,如果你沒有意識到這件事,你只會認為理所當然。這背後的事物創造出幻覺,讓你覺得虛擬助理就該是女聲。」 ▲ 在偏好男聲還是女聲的研究中,研究團隊發現女聲比較受歡迎,這可能與其較不具威脅性有關。(Source:Flickr/amanda tipton CC BY 2.0) 女聲不具威脅性 聽起來較友善...
日前蘋果的資料科學家於一場會議曾首次指出,他們將會公佈自家的 AI 研究成果,同時允許旗下學者自由參與學術活動。不過,蘋果目前苦心投入的 AI 技術,究竟會拿來做什麼?會議中,蘋果大概透露了他們製作的機器學習有幾個方向:圖像與人臉辨識,預測使用者的行為,智慧型助理的語言能力,同時設法強化演算法的可靠性。其中,稍微引人注意的,是蘋果也再次「證實」他們已經在開發自駕技術,指出自家機器學習技術將會用在光學雷達(LiDAR)與量體建模── 一項當前業界用於讓自駕車「理解」現實障礙物的主流技術。不過據外媒表示,與會的蘋果學者僅願意就「AI」的部份提出說明,不打算透露產品的內容。另一項則是類神經網絡的研發。據蘋果所述,他們的技術可以在維持同樣精準度的前提下,增加兩倍的演算速度,卻同時比原型小了 4.5 倍。一般來說,類神經網絡主要是用來模擬生物神經元的反應,在不需要主動輸入資料的前提下,讓一個「學生」類神經網絡,獲得另一個「教師」類神經網絡的技能。目前,蘋果主要希望把這種技術用到 iOS,讓裝置不需要伺服器就能自主運算,處理像是圖片與臉孔辨識之類的事。這種技術也能幫助蘋果不需要另外費工加密資料,再上傳到自己的雲端。為了因應圖像處理,蘋果也強化了 GPU 的運算效能。蘋果自稱,假如都在亞馬遜的雲端平台跑的話,他們的機器學習在掃描圖像的效能,比 Google 快了兩倍──確切來說,是每秒能掃 3,000 張,而 Google 只能跑 1,500 張。實際上也有消息指出,蘋果目前也已經大幅接手了 iOS 裝置的 GPU 設計,距離完全自主僅有一步之遙。不過,蘋果並沒有公開如何訓練類神經網絡來辨識圖片的技術,而且還申請了專利。目前,蘋果儘管宣誓會開放自家的 AI 與機器學習團隊,同時讓合作學者能繼續與學術機構互動,但並沒有透露詳細的規定與界線。至於下一代 iOS 的重大變化,依目前的資訊除了底層的檔案格式將置換成統一的 Apple File System,也可能會首次加入 AR,推出與 Google Daydream 類似的平台。 Inside the secret meeting where Apple revealed the state of its AI research (首圖來源:蘋果)延伸閱讀: 不再堅持保密,蘋果的 AI 團隊將與外界共享研究成果 蘋果通過 VR 頭戴專利,設計與 Google...
在過去的 10 年裡,Google 翻譯(Google Translate)從最初僅支持幾種語言發展到今天的 103 種,每天翻譯的字詞超過 1,400 億個。為了做到這一點,在任意兩種語言之間,Google 翻譯都要執行多個翻譯系統,這帶來巨大的計算成本。如今,許多領域都正在被神經網路技術顛覆。Google 確信他們可以利用神經網路進一步提升翻譯品質。這要求 Google 重新思考 Google 翻譯的演算法架構。今年 9 月,Google 發表聲明,基於神經機器翻譯的 Google 翻譯(Google Neural Machine Translation,GNMT)全新上線。神經機器翻譯是端到端的學習架構,它能從數百萬的實例中學習,提供大幅提升的翻譯效果。雖然功能得到了改善,但是讓 Google 翻譯把當下支持的 103 種語言全部採用神經機器翻譯技術,卻是一項巨大的挑戰。一周前,Google 的工程師們發表了一篇論文《Google 的多語言神經機器翻譯系統:使 Zero-Shot 翻譯成為可能》(Google’s Multilingual Neural Machine Translation System: Enabling Zero-Shot Translation),其中,Zero-Shot 翻譯是指在完成語言 A 到語言 B 的翻譯訓練之後,語言 A 到語言 C 的翻譯不需要再經過任何學習。它能自動把之前的學習成果轉化到翻譯任意一門語言,即便工程師們從來沒有進行過相關訓練。透過 Zero-Shot,Google 解決了把神經機器翻譯系統擴展到全部語言的難題。有了它,一套系統就可以完成所有語言的互翻。從前兩種語言之間都需要多個翻譯系統的情況,從此成為了歷史。這套架構在翻譯其他語言時,不需要在底層 GNMT 系統做任何改變。只需在輸入語句的開頭插入一個輸出語種標記,就可以把結果翻譯為任意語言。下圖是該 Zero-Shot 系統如何運作的示意圖。假設 Google 訓練該系統做日語英語、韓語英語的互譯,圖中用藍色實線來代表。GNMT 系統就可以分享這 4 組翻譯(日英、英日、韓英、英韓)的參數。這允許它把任意一組語言的翻譯經驗轉到其他語言上去。學習成果轉移和多語言翻譯的要求,迫使該系統更好地使用建模的能力。這啟發了工程師們思考:我們能否讓系統翻譯一組它從來沒有翻譯過的語言?這可以用韓語日語互譯的例子來說明。雖然該系統從未處理過韓日互譯,但它利用之前的韓英、日英翻譯學習成果,能進行水平不錯的韓日互譯。Google 把這個過程稱為「zero-shot」翻譯,圖中用黃虛線表示。Google 宣稱,這是世界上首例應用在機器翻譯上的學習成果轉移。Zero-shot 翻譯的成功帶來了另外一個重要問題:這個系統是否在學習語言的通用表達(不管是翻譯成什麼語種,相同含義的語句都被系統使用相似的表達方式?)──類似於「國際語」或者中介語言?工程師們使用了 3D 圖像展示系統的內部網路數據,以了解它在處理日、韓、英的任意互譯組合時是如何運作的。上方圖片 a 部分(左)展示了這些翻譯的幾何結構。意義一致的語句用顏色相同的點代表。比方說,英譯韓和日譯英的兩句話如果意思一致,就會是圖上顏色相同的兩個點。透過這種方式,我們可以很容易地區分不同顏色(含義)的點。b 部分放大了紅色區的點,c 部分則對源語言進行區分。在同一組顏色的點裡,我們看到含義相同但從屬不同語種的句子。這意味著該系統必然對句子的語義進行了編碼,而不是記憶一個短語到另一個短語的翻譯。Google 的工程師把這看做是系統中存在中介語言的標誌。Google 在論文裡面展示了更多的分析結果。他們希望這些發現不但對機器學習和機器翻譯的研究人員們有用處,也能對語言學家和對單一系統怎麼處理多語言學習感興趣的人帶來價值。美國時間 11 月 22 日,基於 Zero-Shot 的多語言神經機器學習系統正式登陸 Google 翻譯。它目前被應用於新增加的 16 個語言組中的 10 個,帶來更高的翻譯品質和簡化的系統架構。我們可以期待在不久的將來,該系統會逐步支持更多的 Google 翻譯語種。 Zero-Shot Translation with Google’s Multilingual Neural Machine Translation System (本文由 雷鋒網 授權轉載)
隨著人工智慧的不斷發展,它似乎已經在很多方面趕超了人類──臉部辨識、物體辨識,還有象棋、圍棋、各種影像遊戲。 人們不禁要問,還有什麼事是 AI 做不好的呢?它在哪方面比不過人類?現在,馬里蘭大學帕克分校(UMCP)的一項研究告訴你,讀漫畫可能就是其中之一。據國外媒體報導,馬里蘭大學 Mohit Iyyer 教授對 AI 讀漫畫書的能力進行了測試。結果顯示 AI 在這一領域遠遠比不過人類。漫畫由一系列單獨的圖畫構成,每部分都搭配文字解釋,圖文符合度很高。這樣一來,如果單獨看某一張圖片或是某一句文本是很難理解到漫畫意思的。除此之外,不同作者的繪畫風格、語言風格不同,排版也存在巨大的差異。而且漫畫與影片不同,每張圖畫之間的時間和空間是不連貫的,中間的大量情節需要讀者發揮想像力去腦補,這種對人類是輕而易舉的事情,對 AI 卻是難如登天。Iyyer 教授用 4,000 本漫畫書創造了一個由 120 萬張漫畫畫格組成的圖庫,每張畫格配有對應的文本對話框。由於涉及版權問題,圖庫中的漫畫全部來源於 20 世紀 30 年代到 50 年代的作品。為了弄清楚 AI 理解漫畫的能力如何,研究人員進行了讓人工智慧程式依靠之前見過的圖畫預測下一個畫格的實驗。首先研究小組先讓 AI 學習漫畫的創作過程,將漫畫中的一個畫格及其對應的文本投給不同的機器演算法,讓它們學習一組漫畫中的每個畫格之間是如何相互關聯的。在大量訓練之後,研究人員把一組 AI 之前沒有見過的短篇漫畫集對它進行測試,並要求它預測出下一張圖畫或者文本的內容。結果發現,人類預測的正確率高達 80%,而 AI 卻與人類水準相差甚遠。Iyyer 教授解釋,「雖然如今的 AI 已經在圖像辨識、文本辨識上取得了不凡的成就,但是對於看漫畫這種需要人類大腦進行邏輯推理和想像力思考的活動,它還是遠遠不及人類。不過,這也是我們今後努力的方向。」 AI Machine Attempts to Understand Comic Books … and Fails (本文由 雷鋒網 授權轉載;首圖來源:Flickr/Jess CC BY 2.0)
俗語「賊眉賊眼」是形容賊人生得一副「賊相」,但這到底有沒有科學根據?最近上海交通大學就有研究員編寫了演算法,透過人臉辨識技術去判斷照片裡的人是否為罪犯。研究論文宣稱有 89% 準確率,不過受到犯罪學專家質疑。「賊眉賊眼」是否成立?有些演員總是被安排做壞人角色,全因一般人都對壞人有些刻板印象,即所謂的「賊形賊相」。正常人都知道相貌跟人品應該沒有任何直接關係,不過上海交通大學就有兩名研究員在網上發表論文,宣稱其演算法能從人臉特徵辨識出罪犯,而且準確率有九成,莫非真的有「賊眉賊眼」?據 BBC 報導,研究員編寫了演算法,可透過人臉辨識技術去判斷照片裡的人是否為罪犯。研究員利用 1,865 張中國一般市民及罪犯的護照照片給演算法學習,其中約 730 張是罪犯的照片,照片裡的人介乎 18 至 55 歲,但報導沒有提及這些照片如何取得。1,865 張照片中有九成用於演算法學習,餘下一成則用於實際測試。結果據論文宣稱準確率達到 89%,論文指罪犯有共通的關鍵臉部特徵,例如上唇的彎曲程度及雙眼距離。論文宣稱該演算法可用於執法及防範罪案,但顯然不獲犯罪學專家買帳。犯罪學教授直斥歧視、缺乏理論基礎英國愛丁堡大學定量犯罪學教授 Susan McVie 直斥該研究違反倫理,因犯罪學不應助長偏見,如果因為一個人的樣貌就判斷他可能是罪犯,只會讓社會更重視人的外表,而且更助長人們,尤其是陪審員偏向只看疑犯的樣貌或衣著方式就下判斷將人定罪。Susan McVie 認為這研究本身就缺乏理論基礎,一個人的外表不會讓他變成罪犯,這研究的出發點本身已經有很大的誤差,其研究結果自然也會有很大的誤差:「如果你用這個演算法去預測一個人會否成為罪犯,成功率一定不會高。」以色列初創研究人臉辨別恐怖份子雖然這研究被學者評得一文不值,但其實這類研究從來沒少過。最受恐怖份子困擾的以色列,就有初創公司 Faception 研究用人臉辨識技術去找出恐怖份子。Faception 行政總裁 Shai Gilboa 就表示他們的人工智慧可根據 15 項關於性格特徵與類型的預測參數,判斷照片裡的人是怎樣的人,例如是天才、外向的人或者罪犯。Faception 相信「DNA 決定性格」,因此相信可憑人的樣子來推測他的未來,並試過從 50 人的撲克比賽中預測 4 名優勝者,其中 2 人就進入前三名。而該公司更宣稱已與某國的國土安全局簽立合約,把該技術用於找出社會中潛在的危險,鞏固國家的社會安全。到底這種理論及技術是否真的站得住腳,可能還需時間證明,但就肯定違反倫理道德。「Your face, Your fate」只是助長優生學的流行,而且更可能是最傷人的歧視。如果因為懼怕罪犯和恐怖份子就藥石亂投,不僅是文明倒退,更是遂了恐怖份子所願而已。 Convict-spotting algorithm criticised Faception can allegedly tell if you’re a terrorist just by analyzing your face...
據外媒 BI 報導,根據職業社群網站 LinkedIn 上的消息,Google 旗下人工智慧部門 DeepMind 近期招募了一群人工智慧專家,希望減少人工智慧可能帶來的毀滅性危險。這些專家中包括 Viktoriya Krakovna、Jan Leike 和 Pedro Ortega 等人。Krakovna 會成為 DeepMind 的研究科學家,她是哈佛大學科學博士,曾聯合創建過生命未來研究所(FLI),未來會負責人工智慧安全方面的技術研究。Leike 也會成為研究科學家,他是牛津大學人類未來研究所(FHI)的研究助理,主要興趣方向是讓機器學習更高效,讓人類受益。Ortega 與上面兩位的職位相同,他是劍橋大學機器學習博士,研究領域是資訊理論和統計機械學在序貫決策中的應用。這些人會組成一個新的部門:人工智慧安全部門。目前對這一部門的確切成立日期還不確定。自從 Alphago 戰勝人類後,DeepMind 的一舉一動都受到外界的關注。目前,它一直在打造能自主學習和擁有思考的智慧電腦系統。雷鋒網曾報導,現在研究人員已經讓電腦學會了圍棋和電子遊戲。除了 DeepMind,如物理學家霍金和艾隆‧馬斯克都擔憂人工智慧可能會在未來成為人類威脅,甚至是毀滅人類。(本文由 雷鋒網 授權轉載;首圖來源:shutterstock)

