企業人力資源部未來可能會拿臉部辨識技術當作篩選求職者的工具?湯姆克魯斯 2002 年主演的《關鍵報告》(Minority Report)電影中出現的預防犯罪系統即將實現?英國衛報 12 日報導,史丹佛大學助理教授 Michal Kosinski 指出,透過照片,人工智慧(AI)將能夠認出人們的政治傾向、辨認出某名學生是否具備高 IQ、哪些人具有高度犯罪傾向以及是否具備特定的人格特質。Kosinski 的研究上週在網路上引發熱烈討論,因為他宣稱利用交友網站照片所訓練出來的 AI 演算法,後續僅需數張照片就能斷定性傾向(男性、女性的準確度分別是 91%、83%)。Kosinski 表示,AI 在斷定極右、極左政治傾向的準確度最高。在未來,明星學校要挑選具潛力學生時可能依賴 AI 臉部辨識技術。《經濟學人》(The Economist)報導,臉部辨技術之所以開始滲透到更廣泛的商業環境,是因為它的準確度呈現大幅提升,開始步上與語音辨識相同的途徑。知名 AI 專家吳恩達曾說,多數人低估 95% 準確度與 99% 正確性的差異:準確度若達到 99% 將可改變產業遊戲規則。目前提供臉部辨識雲端運算服務的公司包括北京曠視科技(Megvii Technology Limited)的 Face++ 平台、商湯科技(SenseTime Co.)、NTechLab、亞馬遜、IBM 以及微軟。美國軍事網站《Defense One》日前報導,中央情報局(CIA)科學與科技部副主任 Dawn Meyerriecks 在「情報和國家安全峰會」上表示,CIA 目前有 137 項直接與 AI 相關的實驗計畫,包括自動標記影片中物體以及依據大數據和相關證據來提升預測準確度。(本文由 MoneyDJ新聞 授權轉載;首圖來源:shutterstock)
現在,人臉辨識系統可以辨識任何人,任何將臉遮住的人也一樣可以。使用人工智慧來描繪臉部輪廓,除了能顯示出人物的身分,更能進一步幫助抓出罪犯、抗議示威人士,即便他們戴著圍巾、太陽眼鏡想遮掩自己。偽裝人臉辨識系統團隊(Disguised Face Identification,簡稱 DFI)正在進行一個研究,目的是讓臉部辨識科技更全能。該團隊稱:「這是一個非常具有挑戰性且難度頗高的研究項目」。但備受爭議的弊端也不少,因為系統內部可以匿名方式查看辨識結果,這部分也引發隱私問題,有學者認為該系統過於專制。 ▲ 偽裝人臉部辨識系統(DFI)透過數據測量,面對穿戴配件與衣物的對象,仍藉由多點臉部輪廓來讀取與辨識人物。 曾在 DFI 工作的一名英國劍橋大學研究員 Amarjot Singh 提及,執法單位與其他希望捕捉罪犯的機構對這套系統都十分感興趣,而且系統潛在的可應用範圍絕對超乎想像!Singh 也率領國際團隊為此系統發表一篇相關學術性論文。 DFI 團隊透過不斷餵養「各式各樣遮蓋住顏面的圖像」,以此訓練系統深入學習 AI 臉部網路,如此訓練需要依賴大量的資料庫。圖像當然混合了這種簡單或複雜的背景,便於挑戰 AI 的靈敏度與精準性。 AI 透過測量 14 個臉部關鍵點(facial keypoint)的距離與角度來辨識,其中 10 個點為眼睛、3 個為唇部,剩下 1 個給鼻頭。系統藉由這些讀取到的數據,來估計隱藏的臉部結構,接著拿來與曾經匯入的圖像進行比較,最後揭示該人的真實身分。 每個臉部關鍵點都在檢視整體系統框架的有效性,與其他先進的系統相比,DFI 證明了自己臉部關鍵點架構的優越性與分類有效性。在早期的測試階段中,因為資料庫存載的人臉圖像尚缺,測試時整套流程只正確辨識 56% 遮掩臉部的面孔;如果同時戴上眼鏡,精確度會下降到 43%。 即便遭遇了一些障礙,Singh 仍開心表示,「我們已離實現目標不遠了!」DFI 也持續呼籲,期望有更多研究人員加入,以擴充並發展系統資料庫的技術。 (Source:arXiv.org) 然而這項研究目前仍在等待正式發行,原因來自它引發一些關於「隱私權」隱憂的爭議。北卡羅來納大學的社會學博士 Zeynep Tufekci 在 twitter 發言,認為這項 AI 研究相當專制,且集威權主義於一身。 最後,DFI 團隊將在 10 月於義大利威尼斯舉辦的 IEEE 國際研討會的計算機電腦工作坊(International Conference on...
美國總統川普(Donald Trump)13 日發布行政命令時表示,可靠的證據顯示中國創業投資基金有限公司(China Venture Capital Fund Corporation Limited)若購併萊迪思半導體公司(Lattice Semiconductor Corporation),未來可能會採取行動損害美國國家安全。根據川普 13 日頒布的行政命令,買家與萊迪思應於 30 天內採取一切必要步驟,全面、永久地放棄擬議的交易。萊迪思執行長 Darin G. Billerbeck 8 月 8 日透過財報新聞稿表示,第三季營收雖可能跟第二季相差不遠,但第四季可望走高。Billerbeck 預期現場可程式邏輯閘陣列(FPGA)業務將持續茁壯。此外,他還提到萊迪思將持續投資包括毫米波(mmWave)、人機介面(HMI)以及人工智慧(AI)等新興成長產業。萊迪思指出,Canyon Bridge Fund 所提出的收購提議已於 2017 年 2 月 28 日獲得股東會的批准。Thomson Reuters 去年 11 月報導,Canyon Bridge 部分資金來自中國中央政府,與中國的太空計畫擁有間接關係。萊迪思表示,與兩大競爭對手(賽靈思、英特爾旗下 Altera)不同的是,公司已停止銷售晶片給美國軍方。(本文由 MoneyDJ新聞 授權轉載;首圖來源:萊迪思)延伸閱讀: 美國監管單位否決中資收購,萊迪思半導體罕見聲請川普裁決
Thomson Reuters 報導,美國國土安全部(DHS)指示聯邦機構在 30 天內清點出資訊系統中的卡巴斯基實驗室(Kaspersky Lab)產品並於 90 天內開始停止使用。DHS 對卡巴斯基內部特定高層與俄羅斯情報機構/俄國其他政府機構之間的聯繫表達疑慮、並表示依據俄國法令情報機構可強制要求卡巴斯基提供協助。DHS 擔心俄國政府會利用卡巴斯基產品去直接危及美國國家安全。卡巴斯基實驗室發布聲明稿表示,俄羅斯資訊分享法只適用於通訊服務,所有指控都是子虛烏有。卡巴斯基實驗室擁有逾 4 億名全球用戶,上述訊息對這家公司的直接財務衝擊可能有限。美國最大電子產品零售商百思買(Best Buy Co)甫於上週宣布全面(包括實體、虛擬通路)停賣卡巴斯基防毒軟體。國際文傳電訊社(Interfax)報導,俄羅斯總統普丁(Vladimir Putin)9 月 8 日對俄國科技廠商說,某些領域的國營機構不能跟使用外國軟體的廠商合作,因為那將構成國家資安風險。俄羅斯新聞社(TASS,塔斯社)9 月 1 日報導,普丁在「ProyeKTOriya」論壇上對學生說,能在人工智慧(AI)產業居於領先地位的國家將可統治世界。(本文由 MoneyDJ新聞 授權轉載;首圖來源:Flickr/NTNU – Norwegian University of Science and Technology CC BY 2.0)延伸閱讀: 美國擬禁卡巴斯基,俄羅斯揚言報復
Wired.com 報導,蘋果(Apple Inc.)執行長提姆庫克(Tim Cook)12 日在發表 iPhone X 時說,這項產品將為未來 10 年的科技趨勢定調。報導指出,與 A11 仿生(Bionic)晶片一同亮相的神經引擎,可能會成為未來智慧型手機的標準規格。Moor Insights & Strategy 分析師 Patrick Moorhead 指出,蘋果神經引擎的最強勁對手可能會是出自三星、高通;Google 也可能推出行動人工智慧(AI)晶片。這類晶片能做許多事,例如協助 iPhone 分析來自 Apple Watch 的偵測數據。蘋果 12 日宣布將與史丹佛(Stanford)研究人員一同測試可偵測心律不整的應用軟體。關於蘋果在 2017 年 WWDC 發表的「Core ML」機器學習編程框架,Moorhead 認為它與神經引擎有直接關聯性。印度媒體《The Hindu》8 月 8 日報導,庫克在受訪時表示,GPU 跳躍式的進展讓一年前辦不到的機器學習得以成真,而且未來 5 年還會有更多的發展,這對擁有深厚晶片專業知識的蘋果來說,將會是一大競爭優勢。華爾街日報 8 月報導,蘋果 2017 年度第三季(截至 2017 年 7 月 1 日為止)研發支出年增 15% 至 29 億美元,同一時間營收僅年增 7%(至 454.08...
身為人工智慧(AI)威脅論的主要支持者,馬斯克(Elon Musk)一直都很擔憂 AI 未來的發展可能會對人類造成危險,近日他在推特轉推了一篇駭客對 AI 威脅的看法報導,試圖佐證自己的理念。Gizmodo 的報導談到,為了解 AI 走上「歧途」的可能情況,網路安全公司 ZeroFOX 在 2016 年進行了一次實驗,讓人類和 AI 進行一場競賽,看誰能誘導更多 Twitter 用戶點擊惡意連結。實驗之前,研究人員先讓 AI 理解這次的目標,在研究社群網路用戶的行為模式之後,設計並拋出網路釣魚(phishing)的誘餌,吸引用戶點擊連結上鉤。結果在實驗的規定時間裡,AI 總計向 800 多名用戶發出詐騙推特,並吸引 275 名用戶點擊;相較之下,參加實驗的 ZeroFOX 員工只發出 129 次嘗試,吸引了 49 名用戶。不論是拋出的魚餌數或吸引到的用戶數量,AI 都以壓倒性的比數擊敗了人類。這樣的結果似乎在預料之中,但 ZeroFOX 認為最重要的是,這個結果證明 AI 確實能被駭客用來進行惡意攻擊,事實上,雖然無法證實,但他們很有可能已經這麼做了。今年 7 月舉辦的美國駭客年會(Black Hat),數百名網路安全專家一起討論 AI 技術可能帶來的隱憂,當與會者被問到「未來一年內,是否會有駭客開始利用 AI 進行網路犯罪」時,近 62% 的受訪者給了肯定的答案。運用 AI 進行網路犯罪負責調查的 Cylance 安全數據科學家 Brian Wallace 認為,駭客應該已把 AI 當做武器使用好一段時間了。「這推論非常合理,因為『規模』對駭客來說很重要,他們必須盡可能增加攻擊次數、目標,同時減少自己的風險。對他們來說,AI 和機器學習就是能用到的最終完美武器。」Wallace 的想法並非少數,行動裝置安全防護公司...
許多交通事故的研究都指出,駕駛人分心往往是車禍發生最大的原因,目前已經有一些系統能檢測出駕駛人是否精神不濟,但類似撥打電話、從鄰座拿東西的分心行為,究竟該如何防止?為了避免駕駛者分散注意力的行為影響到自身安全,加拿大滑鐵盧大學(UW)模式分析和機器智慧中心(CPAMI)的工程研究人員發明了一個運用人工智慧(AI)的軟體,會在分心時對駕駛者發出提醒。這個軟體主要是透過車載攝影鏡頭來觀察駕駛的手部動作,再經由演算法將動作與機器訓練已知的活動相配對:像是發送訊息、打電話或拾取東西,接著針對構成的安全威脅等進行評級分類。帶領團隊研發的 Fakhri Karray 教授表示,如果分散注意力的程度太高,系統將自動警告司機。隨著未來越來越多車輛將具備自駕技術,屆時可能會在嚴重分心的跡象出現時觸發保護措施。但系統判斷分心的標準究竟為何呢?根據了解,在團隊運用機器學習(machine-learning)打造的演算法中,主要判斷的標準是「持續時間」和一些其他因素。這項判斷主要建立在 CPAMI 以前廣泛的研究基礎上,除了偵測手部動作,頭部和臉度定位也是分心的重要線索,系統已經學會判斷類似的徵兆,像是頻繁眨眼可能意味駕駛充滿睡意。除了運用鏡頭來追蹤判斷徵兆,CPAMI 也正在探討運用感測器來測量駕駛生理信號,像是眨眼頻率、瞳孔大小或心跳數,來協助確定駕駛是否還專注在眼前的道路上。研究團隊目前正打算擴大系統功能,將數種不同類型的駕駛者分心的檢測、分級模式和處理方法結合至其中。Karray 和團隊近日在蒙特婁(Montreal)舉辦的第 14 屆 ICIAR 國際會議上公布了研究成果,由於分心向來是交通事故的主因,Karray 認為一旦系統能實際運用,可對社會造成很大影響。 New software can detect when people text and drive (首圖來源:Stocksnap.io)
無人機、無人車已經是我們生活中熟悉甚至真實應用的科技,而未來需要在海上長期航行的船艦也能無人駕駛,除了能降低大量營運成本,軍事、探勘用途的船隻也能大幅度降低人力折損的風險。免除人力、後勤補給,營運成本將大幅降低一般熟知打造高級汽車及飛機引擎的勞斯萊斯,最近公布了搭配人工智慧(AI)技術的無人船艦原型概念,這艘船艦預計長 60 公尺、能航行 3,500 海哩,配有電力推進系統,能不中斷航行 100 天。無人船艦可從遠端控制,執行巡邏、礦脈探測、偵測海中地雷等任務。勞斯萊斯表示,他們注意到近年各國海軍對無人船艦的興趣,未來若將這項技術用於軍事用途,將可避免兵力傷亡、折損,長時間的海上任務也能免除人員、物資後勤補給成本,船隻載重也能因此減輕。勞斯萊斯從 2013 年就開始投入無人船艦研發,勞斯萊斯海軍電器、自動化和控制部總經理 Benjamin Thorp 表示:「各國對海軍自動化展現高度興趣,這類型的船艦除了提供更高的執行能力、降低船員在外風險,營運成本也能大幅降低。」期待下一個十年能看到無人船艦普及。整合 AI 技術讓船艦自己控制自己勞斯萊斯表示,他們利用人工智慧(AI)打造智慧系統,確保船艦安全運作,自動駕駛工具還包括能源管理、儀器監測、遠端維護系統,預計能航行 3,500 海哩、速度可達 25 節,能在沒有人力介入的情況下獨自航行 100 天以上。能源將採用柴油或燃氣引擎為主要動力驅動,再搭配太陽能板為能源輔助,同時配有 3,000kWh 電力儲能空間,確保隨時備有足夠能源。沒有人員的船艦最擔心的是發生故障無法立即修復,勞斯萊斯表示,團隊會調整機械設計、導入機器學習預測潛在的故障問題,做為遠端維護能力的基礎,雖然目前動駕駛的技術已經具備,整合 AI 技術讓船艦成為有意識的系統進而控制自己,將會是重要的下一步。靠著科技設備驅動的無人船艦,「網路攻擊」也成為科技發展疑慮的關鍵字。勞斯萊斯表示打造潛艦同時,駭客入侵也是團隊關注的焦點,這將成為無人船艦未來面臨最大的威脅挑戰。 Rolls-Royce reveals plans for autonomous Naval vessel Rolls-Royce has plans for an autonomous naval ship Rolls-Royce planning autonomous naval ship for patrol, surveillance and mine detection (本文由 數位時代 授權轉載;圖片來源:Rolls-Royce)
仔細看看,首圖這輛福特的駕駛座,到底有沒有人坐在上面駕駛?眾所周知,自動駕駛汽車商業化面臨的最大問題是技術尚無法支援全天候系統駕駛,當技術不再是問題時,是不是就萬事大吉只等量產了?不是,還有很多細枝末節的問題要解決。比如,自動駕駛汽車如何自證運行夠安全,以消除大眾對新技術的擔心與疑慮?如何像人類駕駛與路人有效的溝通?福特旗下為自動駕駛汽車工作的人為因素技術專家 John Shutko 13 日在 Medium 發文闡述他們的努力。「如果自動駕駛汽車裡沒有駕駛員,甚至在某些情況下其他座位也空空如也,只有車輛本身運行時會怎麼樣?福特認為研發自動駕駛汽車不僅要關注技術,我們正在努力設計、測試和倡導一個標準,使自動駕駛汽車輕鬆將意圖傳達給路人和道路基礎設施。」為此,福特與佛吉亞科技交通運輸研究所(VTTI)達成合作,探索自動駕駛汽車與周邊環境的互動方式和路人、騎士對自動駕駛汽車的反應。顯而易見,當下的技術水平和法規還不允許自動駕駛汽車自行運轉,也就是駕駛座上必須坐一名駕駛防止意外發生。但為了達到測試效果,福特改造了駕駛座,讓駕駛座彷彿被掏空。這個座椅套裝讓駕駛坐在駕駛座,同時又能騙過路人和騎士的眼睛,收集到他們對無人自動駕駛汽車的真實反應。自行運轉的自動駕駛汽車如何與路人互動呢?福特在模擬自動駕駛汽車的擋風玻璃頂部安裝了一條燈帶,透過燈帶的閃爍吸引路人的目光,達到互動的目的。例如兩條燈帶並排移動,表明汽車正在減速停下;如果是一道快速閃爍的白光,表明汽車啟動即將加速;如果白光處於常亮狀態,表明汽車處於完全無人駕駛狀態。有沒有更簡單的互動方式?肯定有人會在評論區留言,直接改成稍寬一些、能顯示字幕的 LED 燈條,即將減速就顯示「注意!我即將減速停止。」加速就顯示「注意!我即將加速」;無人駕駛顯示「處於完全無人駕駛狀態,閒雜人等退讓。」這麼做的好處是路人完全沒有學習成本,對汽車的狀態一目了然。哪怕直接採用交通號誌那種红綠黃三色指導汽車的加減速和無人駕駛,也比上面那套方案更好吧。其實福特也想到了,但為什麼選了白色燈條方案呢?理由也很充分,比如說,世界上有幾千種語言,許多國家有不只一種官方語言,想要使用文本與所有人有效溝通幾乎不可能。又或者,很多國家的交通監管部門對汽車前方使用什麼顏色的燈是有限制的,從這個角度講,使用白色或琥珀色的燈條被禁止的可能性最小。燈條也不是一勞永逸的方案,比如自動駕駛汽車如何與盲人和視障者進行溝通?這也必須單獨研究一個解決方案。不管怎麼說,在人們真正理解這些燈條閃爍的含義前,需要讓這解決方案多次曝光,讓這些信號燈在大眾心目中,成為像交通號誌那樣根深蒂固的知識。如果這些信號燈成為一種被接受的視覺語言,對自動駕駛汽車融入人類社會運行將大有裨益。「隨著自動駕駛技術的發展,是時候共同創建行業標準,開始消費者教育的行動了。截至目前,我們已在高密度城市測試了超過 150 小時、大約 1,800 英哩的里程,初步的結果表明,創建一種標準化的信號語言可能有社會效益。當我們深入研究這個問題時,我們的目標是幫助社會努力接受自動駕駛汽車的未來。我們認為,一個行業和發展的全球標準,是支持自動駕駛汽車最終商用的關鍵。這就是為什麼我們正與幾個行業組織合作,包括國際標準化組織和 SAE 國際組織。」這麼做是對的,但還不夠;如果想推動這個方案成為行業標準,其他車企的態度也很重要。(本文由 36Kr 授權轉載;首圖來源:medium)
上週,史丹佛大學教授 Michal Kosinski 表示,根據研究,AI 能根據圖片判斷某人是否為同性戀。他的研究引起 LGBT 群體的強烈反感。據衛報報導,Kosinski 再次提出更多有爭議的結論。他說,透過臉部辨識技術,AI 還能得知更多東西,包括人們的政治觀點、智商、犯罪傾向、特殊個性等。Kosinki 研究了人們的臉部特徵與政治傾向間的關係。初步結論是,基於臉部特徵,AI 能有效判斷人們的政治觀點。他說,曾有研究發現,人們的政治觀點是有遺傳性的,因此,政治傾向可能體現在不同的臉部特徵。他還提出,以前的研究發現,保守派政客比自由派政客更有吸引力。臉部辨識還能用於判斷某人的智商高低。未來,在挑選學生時,學校可能會使用臉部掃描技術。不過,這將會帶來一連串道德問題,比如是否應該讓 AI 判定某些孩子更聰明。「我們應思考這些問題,否則,我們就會進入這樣的世界:更好的基因意味更好的生活。」Kosinki 預測,在觀察大量的臉部圖片後,演算法能判斷某人是否為精神病患,或有強烈的犯罪傾向。這是一個值得關注的問題,因為犯罪傾向不一定會轉為犯罪行為。「即使人們有很強的犯罪欲望,真正犯罪的可能性並不是很大。」對 Kosinki 的研究成果,Calgary 大學的電腦科學教授 Thomas Keenan 認為,法律通常將人臉視為「公開資訊」,而法律尚未跟上技術發展的步伐。當某人的臉被電腦監測並生成新資訊,這是否侵犯個人隱私?目前的法律並沒有相關規定。另外,即使 AI 的預測非常精確,也無法保證所有預測都是正確的。「這是一個非常危險的領域,」 Keenan 說,「二十分之一或百分之一的情況下,AI 有可能錯得離譜。」 Face-reading AI will be able to detect your politics and IQ, professor says (本文由 愛范兒 授權轉載;首圖來源:shutterstock)延伸閱讀: 想遮住或躲開臉部辨識軟體也沒用,新的人臉辨別軟體將幫助更快抓到罪犯 人臉辨識資料庫是否侵權?這可能是下一個隱私攻防戰