星期一, 26 1 月, 2026

旅 TRIVEL

這個時代假新聞滿天飛,我們通常會說「沒圖沒真相」來當作區辨是否真實的原則,然而連照片、影片也是假的話,那該怎麼辦?尤其現在又有 AI 人工智慧技術,方便、全自動的修圖更是能製造出大量假照片、假影片。相應這個趨勢,知名影像處理軟體開發公司 Adobe 提出了抓出假照片的技術方案。▲ 知名假照片,伊朗政府在 2008 年發表。(Source:WIRED)Adobe 最近在 CVPR 計算機視覺會議上,展示了以機器學習自動辨識出影像是否經過變造的技術,並且一併發表論文。該研究論文並不代表該領域的突破,也還不是商業產品,但很有趣的是,Adobe 這個公司幾乎就是變造影像的代名詞,卻對這種工作有興趣。該公司發言人表示,這個研究專案仍然在早期階段,但在未來,該公司希望在「開發有助於監控和驗證數位媒體真實性的技術」方面發揮貢獻。Adobe 過去從未發表過用於辨識假照片的軟體,這意味著什麼還不是很明確。不過呢,該公司指出已經幫助過執法單位,以數位鑑識技術尋找並且成功找到失蹤兒童,這似乎意謂著該公司對其影像處理技術負起負責的態度。這份嶄新的研究論文展示了機器學習如何用於辨識出 3 種常見的影像處理型態: 拼接(splicing):將不同圖片的兩部分組合在一起。 複製與移動(copy-move):圖片內的區塊被複製和貼到別的部分去。 刪除(revomal) ▲ 3 種常見的變造手法。(Source:論文截圖)為了發掘圖片是否被篡改過,數位鑑識專家通常會在圖片的隱藏圖層尋找線索。當編輯圖片時,會留下數位人工產物,例如圖像感測器隨機產生的顏色和亮度變化(也稱為圖像噪訊)的不一致性。例如將兩個不同的圖像拼接在一起,或者將圖像一部分區塊複製起來貼到另一部分,其背景噪訊會不相容,就好像牆壁上略微不同顏色的污漬。▲ Adobe 的訓練資料。(Source:論文截圖)與許多其他機器學習系統一樣,Adobe 也使用含有大量變造過圖片的資料集來訓練人工智慧,從中發現變造圖片的常見模式。這套系統在某些測試中得分高於其他團隊製造的類似系統,但還沒達到遙遙領先的地步。然而,這項研究並未直接應用於以 Deepfake 產生的假影片(Deepfake 是以人工智慧移花接木產生假影片的軟體,之前許多人用來把女明星合成到色情影片演員身上 )。▲ Adobe 的鑑識系統辨識出圖片被變造的地方。(Source:論文截圖)數位鑑識專家 Hany Farid 表示:「這些新的機器學習方法的好處是有可能發現不明顯且以前未知的偽造影像;然而這些方法的缺點是,目前受限於餵給類神經網路的訓練資料,目前還不太可能學習到區辨出陰影、反射幾何形狀的不一致那樣更高級的偽造手法。」儘管如此,畢竟是有人在進行更多研究幫助我們發掘假圖,正如許多專家提醒,我們正走向某種「後真相」(post-truth,註)的世界,連我們看到的影片、照片都不一定可信,我們真的需要新工具來幫助我們明辨真假,水能覆舟亦能載舟。人工智慧讓偽造相片更容易了,但也可望更能辨識出假照片。註:關於「後真相」,牛津辭典對 post-truth 的解釋是「反應客觀事實對民意的影響力,比不上情緒及個人信念的情形」,後真相的世界也就是用假新聞、假照片、假影片來「帶風向」的世界。 Adobe is using machine learning to make it easier to spot Photoshopped images (首圖來源:影片截圖)延伸閱讀: 照片盜用偽造氾濫?Truepic 想打造一個影像真實驗證平台 Google 的超強 AI 工具,怎麼會被拿來做換臉 A 片?...
如何建立一家人工智慧創業公司?一,請一群領最低工資的人假裝成 AI;二,等真正的 AI 創造出來。Readme.io 創始人 Gregory Koberger 曾在 Twitter 這樣說。雖然這評論是 2016 年發表,但如今仍有不少公司這樣做。上週,《華爾街日報》爆料 Google 的 Gmail 事件,指出 Google 允許部分合作方閱讀用戶 Gmail 的內容。披露郵件安全問題同時,這篇報導也暴露不少科技創業公司的黑暗面──聘請人類員工假裝人工智慧/演算法。報導指出,加州聖荷西的新創公司 Edison Software 承諾為消費者提供「智慧回覆」功能,主要基於用戶原有郵件內容,透過演算法生成建議回覆。問題是,由於訓練演算法的資料不足,演算法表現不佳。於是,這家公司讓兩位 AI 工程師開始大量閱讀用戶郵件(用戶個人資訊經過編輯),並調整修改演算法生成的回覆。《衛報》指出,Edison Software 並非第一家被爆用人工代替機器/人工智慧的公司。2008 年,名為 SpinVox 的公司被 BBC 爆料用人類員工聽語音留言,轉錄成文字,並沒有像他們宣傳的,用機器和技術辨識。2016 年,彭博社報導,每天,一大群人都會花費 12 個小時假扮成 X.ai 和 Clara 公司的聊天機器人,透過和用戶聊天,為他們提供行程安排等服務。據報導,由於工作無聊至極,這些假裝成聊天機器人的員工說,他們真希望機器能取代他們。你能模擬特定產品的終極體驗。很多時候,當你遇到聲稱是 AI 的產品時,背後其實都坐著真正的人類員工,而不是演算法。Alison Darcy 說。她是心理健康輔助聊天機器人公司 Woebot 的創始人。在她看來,要訓練一個可用度高的人工智慧,往往需要超大量的資料。但在投入資本前,設計師會想知道這產品到底有沒有市場,所以就用人類來代替。用 Gregory Koberger 的話來說,這就是「用人類建造的人工智慧原型」。不過,Darcy 堅持自己公司並沒有像其他公司會隱瞞用戶,因為身為心理諮詢師,有對病人坦誠的職業原則。對大部分人來說,科技公司用人類代替原本承諾的機器服務,最大隱憂在於個人隱私安全。2017 年,一家為用戶提供業務支出管理的公司 Expensify 承認,他們的確聘請人類員工來幫忙辨識並轉錄一些收據內容,即便他們一直聲稱這是公司「智慧辨識技術」(smartscan technology)的功勞。據悉,Expensify 透過亞馬遜 AWS 的眾包平台 Amazon Mechanical...
近期有媒體報導,中國公安機關藉張學友的巡迴演唱會,透過臉部辨識技術成功逮捕多名被通緝的嫌犯。世界另一端的英國,大眾對利用臉部辨識協助拘捕嫌犯還沒有共識,當地的民權組織認為警方使用臉部辨識侵犯隱私,英國警方的臉部辨識測試似乎也不太順利。英國傳媒報導指出,倫敦警方之前在一個行人天橋設置鏡頭,進行用臉部辨識緝捕嫌犯的測試。當地警方日前透露,這個備受爭議的測試,無法成功拘捕任何嫌犯。這項測試主要希望臉孔辨識系統能協助確認和逮捕暴力罪犯,可惜未能成功拘捕任何人。英國警方沒有透露測試期間查問過多少嫌疑人,但引發臉部辨識系統警報響的人,資料會保留在資料庫 30 天,至於其他未被系統點名的樣貌資料則會即時刪除。警方強調這次測試透明公開,他們會透過廣播和傳單向大眾表明鏡頭的存在,不過英國傳媒表示,行人都沒有注意到測試區域附近的海報。 London’s Met Police facial recognition trial proves to be a farce (本文由 Unwire HK 授權轉載;首圖來源:shutterstock)延伸閱讀: 中國臉部辨識先進,即刻比對身分抓違規
晶圓代工大廠格羅方德(GlobalFoundries)在 10 日宣布,旗下的 22FDX 製程已經進行了 50 多個設計訂單,合約總金額突破了 20 億美元。以這樣的合約金額來計算,因為 2017 年格羅方德全年的總營收落在 61.76 億美元。因此,這麼一個成熟技術製程能有如此規模的營收,算是發展相當成功。格羅方德在 2015 年 7 月正式宣布了 22FDX 製程,其最大特點是全球第一家達成 22 奈米 FD-SOI (完全空乏型矽絕緣層金氧半電晶體元件),仍然採用平面型電晶體的製程,整體複雜度和成本都大大低於其他競爭對手 16/14 奈米製程。 根據格羅方德的說法,22FDX 製程的最大特點是靜態和動態功耗極低,只需業界最低的 0.4V 電壓就能運行在 500MHz 頻率。而且,可以透過軟體控制電晶體電壓,最高不超過 1.5V 的情況下,因此非常適合行動、穿戴式裝置、IoT 物聯網、FR 射頻等領域的產應用。根據官方所公布的資料顯示,22FDX 製程功耗比 28 奈米 HKMG 製程降低了近 70%,且晶片面積比 28 奈米製程縮小了 20%,光刻層比 FinFET 製程要減少接近 50%,晶片成本則是比 16/14 奈米製程減少了 20%,還整合了 RF 射頻,使得功耗降低最多 50%。格羅方德舉例表示,一個藉由格羅方德 22FDX 製程生產處理器的智慧手錶,其處理器的主頻來到 1.5+GHz,電壓僅僅...
近日 Marvell 宣布完成收購 Cavium,合併後的公司將有廣泛的智慧財產權和專利組合,這有助於面對未來幾年出現的新型計算需求,該公司必須制定一套可妥善利用所有資產的綜合藍圖。去年 11 月曾報導 Marvell 以 55 億美元收購 Cavium 流通股,同時還吸收 Cavium 約 6.376 億美元債務,這使交易價值超過 61 億美元。花了一大筆錢,Marvell 獲得 Cavium 基於 ARM 和 MIPS 的 SoC 開發人員,用於網路、影片、安全、儲存連線、伺服器和其他應用。交易結束後,Marvell 宣布 Syed Ali(Cavium 聯合創始人兼 CEO)、Brad Buss(Cavium 董事)和 Edward Frank 博士(Cavium 董事)加入 Marvell 董事會。本質上講,Marvell 已將自己從儲存控制器(HDD / SSD / RAID 等)、網路和連接解決方案開發商轉變為有更大潛力的公司。Marvell 現在寄望 AI、5G、雲端計算和邊緣計算等應用領域,值得注意的是,致客戶的信中,Marvell 描述新產品組合時甚至將處理器放在儲存控制器之前。「人工智慧、5G、雲端計算、汽車和邊緣運算等應用都需要高頻寬、低功耗的工程解決方案」,Marvell 首席執行長 Matt Murphy 表示,「身為一家綜合性公司,我們現在可提供業界領先的 IP、廣泛的基礎設施解決方案組合,以及一支有才能的創新者團隊,隨時準備應對客戶最棘手的挑戰。」可以肯定的是,計算能力對儲存行業變得越來越重要。自從 Marvell 宣布計劃收購...
根據日經亞洲評論報導指出,鴻海近日已在加州矽谷成立了全新的公司「Industrial AI System」,未來將專注發展能應用於工廠自動化的人工智慧(AI)技術。在全球智慧型手機銷售放緩、勞動力成本持續提升的情況下,過去一年鴻海集團一直都在積極尋找機會發展工業互聯網,以及更有效率的工廠製造方法。在本週稍早時候,鴻海還與辛辛那提大學(University of Cincinnati)共同簽署了開發工業 AI 的合作研究協議,高級副總裁 Andrew Liou 表示,他們正在尋找深度學習、物理、光學和精密機器控制領域的人才,首先會在矽谷招募約 100 名 AI 人才,並於未來持續擴大於該領域的發展,新的 AI 人員將與現有的自動化、感測器與物聯網部門合作,並持續收集和分析數據。6 月底與美國總統川普一同出席了威斯康辛州面板廠動土典禮後,鴻海董事長郭台銘便一直在美國旅行,在 6 日出席史丹佛大學以「工業人工智慧」為主題的演講中,除了為未來徵才公布相關條件,郭董也表達了對於矽谷的讚賞之意,他指出海灣地區一直是高科技產業的創新中心,更是美國最好的 AI 與電腦科學人才的歸所。據了解,史丹佛大學的活動原先僅開放 100 人參加,但最終活動吸引超過 500 人前來,與會者包括大學的學生、新創公司企業家、以及大型科技公司的員工和 AI 研究人員,許多與會者都對新的 AI 工作表達出興趣,一位在當地科技公司工作的與會者便表示,他期待未來能收到有關就業機會的更多消息。 Foxconn’s Terry Gou pushes ‘industrial AI’ in Silicon Valley (首圖來源:達志影像)延伸閱讀: 鴻海威州投資風光動土,5 大亮點搶先看 富士康證實,中國證監會核准 FII 首發
印度青年事務與體育部次長拉索 10 日表示,印度政府與各省政府將合作建立一個學生資料庫,透過人工智慧挑選並培育未來體育明星,希望他們在 2024 和 2028 年奧運為印度爭光。印度青年事務與體育部次長拉索(Rajyavardhan Singh Rathore)10 日在第 4 屆「今日郵報」(Mail Today)旅遊高峰會上,提出這項看法。運動員出身的拉索指出,印度中央政府計劃創建一個應用程式,邀請各省政府成為合作夥伴,希望建立一個年齡介於 5 到 18 歲約 3,000 萬名學生的資料庫,並透過人工智慧,先篩選出 2 萬名學生,再進行 DNA、智商和體育技能測試,最後篩選出 5,000 名學生。《今日郵報》引述拉索談話說,篩選出適合成為未來體育明星的學生後,將根據他們的「自然能力」向他們推薦體育項目,提供進一步培訓。他表示,政府將把篩選出來的有潛力學生,每年提供 50 萬盧比(約新台幣 22 萬餘元)獎學金,確保他們的體育技能可全面發展。拉索指出,未來 4 年,至少有 150 所教育水準較高的學校獲得政府補助,用來培育學生體育技能。他說,首先,將有 20 所寄宿學校獲得 7,000 萬盧比(約新台幣 3,106 萬餘元)到 1 億盧比(約新台幣 4,437 萬餘元)來發展體育設施,並根據學生能力培養體育明星;每個學區也將有一所學校確定為重點培育體育明星學校。印度雖有近 13 億人口,但在奧運的表現並不理想,從 1900 年首次參加奧運以來,僅獲得 9 面金牌,因而引起印度社會關注,輿論批評政府並未用心培育體育人才,印度政府盼透過計畫增加奧運獎牌數。(作者:康世人;首圖來源:Flickr/Meena Kadri CC BY 2.0)
PTT 之父杜奕瑾返台後,創立台灣人工智慧實驗室(AI Labs),開發的語意辨識引擎「雅婷一號」,他分享內部測試過辨識率準確度更勝科大訊飛,如今,「雅婷一號」也傳出將跟華碩合作。杜奕瑾表示,「我們台灣的中文語音技術已經是世界水準,跟科大訊飛、Google 及百度一起測,我們台灣本地的中文辨識率是最準確的。」不過對於華碩合作案,他表示個別的合作不方便講。開發「雅婷一號」,靠網路大數據訓練▲ 杜奕瑾說,雅婷一號不斷在 YouTube 上看片學國語,現在國語、台語都能通。(Source:HowFun)他表示,現在 AI Labs 團隊做的語音辨識及語意理解,都是用本地的資料做訓練,不管是看 PTT 網站還是上 YouTube,「網路就是大數據」,杜奕瑾說,很多企業說沒有數據無法做機器訓練,現在雅婷一號台語也能通,連人臉辨識訓練也是用在地影片做訓練。為何要開發雅婷一號?據了解,起源是有次數位政委唐鳳拜會杜奕瑾時,帶了一位每分鐘可以打 300 到 350 字的速錄師薛雅婷,做訪談逐字稿,結果唐鳳對杜奕瑾的語音 AI 辨識印象深刻,還打趣不要讓「雅婷」整天做會議紀錄太累,所以讓這個語音辨識系統取名雅婷一號。「但語音介面要每天在身邊使用,其實還有很大的改善空間」,杜奕瑾說,至今身邊都沒有出現太多語音控制服務。但他仍對聲控發展樂觀以對,可是能否做到完全順暢,他認為不管是國際大廠還是台灣業者,都還在摸索。人工智慧使用者介面,仍處摸索期在杜奕瑾的觀念裡,數位社會發展有 3 個時間軸線發展,第一階段是 1995 年起的 10 年,是電腦時代,當時的使用介面是瀏覽器;而後進入 10 年智慧手機時代,使用介面就是 App;如今現在進入第 3 個人工智慧階段,但使用介面是什麼呢?杜奕瑾說,「大家都還在摸索」。▲ 人稱 PTT 創世神的杜奕瑾在台專攻智慧醫療、智慧交通、語音辨識 3 大領域。(Source:AI Labs)AI Labs 開發了雅婷一號語音辨識引擎。杜奕瑾說,語意理解跟語音辨識技術其實在這幾年有很大的突破,但怎樣才是最佳用戶體驗,還有很多改善空間。他建議大家發展 AI 的使用方式,應該是思考用科技去解決身邊的問題,這樣做出來的工具自然最好用,因為這是你最了解的地方。也因此,杜奕瑾回台後創立 AI Labs 投入智慧城市、智慧醫療、人機介面 3 領域發展,他說,「台灣一定要有自己的力量」。台灣徒有框架,缺乏核心引擎杜奕瑾觀察,台灣廠商大量做裝置端產品,或是服務框架出來後,卻缺乏核心引擎,現在人工智慧實驗室就是建立一個很紮實的、在台灣的引擎,不需要把資料送出國。「你願意把資料送到中國嗎?」杜奕瑾問,個資傳送涉及隱私跟安全問題,「資料就是國安」,雅婷一號是唯一不需要將資料外送的引擎。▲ 智慧音箱品牌大增,杜奕瑾問:你願意把自己資料送出國運算嗎?現在的語音辨識引擎,例如 Alexa 主要功能就是購物跟聽音樂,但杜奕瑾認為,未來人機介面體驗其實還有很多發揮空間,若能做到天然的溝通技術,不會只能做這兩樣工作。杜奕瑾說,現在大家就是看 Alexa 做得起來(購物跟聽音樂)就跟進做,但他呼籲,「我們不要做大老二」,不要只是看亞馬遜做了就想複製,又例如無人機運貨或無人商店,在他眼裡實用性都不夠強,他認為台灣廠商仍應回歸關注身邊的問題,以此為本去想解法。台灣 AI 產業占據良好位置杜奕瑾說,其實台灣在數位社會發展邁入人工智慧階段時,有非常好的位置,一方面跟美國廠商合作關係好,一方面有世界第一流的軟體人才,比方台大在 2016 年是亞洲 AI...
蘋果(Apple)已經整合各個人工智慧(AI)相關的部門,由 4 月才帶槍投靠的 Google 前搜尋與 AI 主管 John Giannandrea 領軍。Giannandrea 接下來將成為機器學習和 AI 策略的主管,負責蘋果的機器學習部門、Siri 團隊和 Core ML 團隊。Core ML 是蘋果 2017 年推出的機器學習 API,幫助由第三方開發的 AI 應用程式或服務能夠更順暢的在 iOS 裝置上運作。John Giannandrea 過去在 Metaweb 擔任技術長,直到 2010 年公司被 Google 收購才加入 Google。後來在 Google 任職將近 8 年,曾將 AI 導入搜尋引擎、Gmail 和 Google 個人助理等產品當中,2018 年 4 月離職之後沒多久就加入了蘋果。蘋果目前在自然語言處理和電腦視覺等關鍵的 AI 領域落後,這兩者都是強化 Siri 所不可或缺的技術,而且還關係到其他 AI 相關的廣大應用。不過因為蘋果對用戶的隱私保護較為嚴謹,要取得資料來訓練 AI 也相對不易。在...
出生時或出生前出現併發症的嬰兒,往往都必須面臨未來認知或身體出現障礙的風險,為了協助及早辨別嬰兒是否出現非典型的發展階段,歐美研究團隊在可穿戴設備和機器學習技術的幫助下,開發出一種演算法針對肢體運動模式進行分類,進而預測嬰兒是否可能出現神經缺陷。由南加州大學(USC)和西班牙馬德里卡洛斯三世大學(UC3M)研究人員組成的團隊指出,許多研究都指出像是踢腿頻率、時空概念(spatiotemporal)和相關肢體協調的運動情況,在典型發育的嬰兒和早產、智力障礙、唐氏症、脊柱裂等非典型、具風險的嬰兒間是不同的,但有一個問題:這些差距難以在嬰兒早期發現。為了協助預測,團隊在南加州大學的嬰兒神經運動控制實驗室,收集了包含加速度計、陀螺儀和磁力計等綁在嬰兒腳踝上的運動數據,並讓演算法掌握這些感測器收集的內容,像是每個動作持續的時間、平均加速度、最大加速度和其他特徵等。接著研究人員再添加年齡、發育程度和發育標籤(即典型或非典型)等特徵,運用大量二進制分類演算法建構預測模型,並從中選出 3 個表現最好的整合,最小化任何模型可能有的偏見。最終產生的演算法預測得出一定準度,透過分析運動數據,6 個月以內嬰兒的發展遲緩預測準確度達 83.9%,6~12 個月嬰兒的準確率也達 77%。研究人員認為,從整體來看,演算法的結果可說是進一步確立了運動學特徵與嬰兒發育之間的關係,未來的研究中,該團隊希望能「招募」更多嬰兒,最終創造一個演算法,能根據感測器的歷史數據來預測嬰兒的運動情況。團隊表示,以現在的情況來說,發展遲緩經常無法在嬰兒 2 歲前診斷出來,這也讓許多嬰兒無法早期接受針對性治療措施。他們希望未來開發的演算法能證實發展遲緩與出生幾個月內的嬰兒運動數據間的關聯性,進而促使更多嬰兒接受早期治療。 Researchers develop AI that predicts developmental disabilities in infants Predicting Infant Motor Development Status using Day Long Movement Data from Wearable Sensors (首圖來源:pixabay)