日本科技大廠 NEC 持續推動轉型計畫,上月底證實將從日本國內 8 萬名員工裁員 3 千人,並關閉部分工廠;近日再宣布,將與日本另一大工業集團住友電工合作,在住友電工生產的車用零件,導入 NEC 的人工智慧(AI)和物聯網(IoT)技術,針對車輛本身與車外系統的軟硬體,進行企劃研發、產品化等,積極布局車聯網領域,而這也視為 NEC 由硬轉軟的另一指標。NEC 曾是昔日全球半導體龍頭,近 30 年來持續轉型,陸續砍掉半導體、電腦和手機等事業體,轉往軟體發展。NEC 全球總裁兼執行長新野隆曾表示,集團未來的重心只有一件事,那就是人工智慧。2016 年,NEC 發表了 AI 技術群的新品牌「NEC the WISE」,強調將推廣 AI 技術的開發與應用,致力於 IoT、巨量資料(Big Data)、安全(Security)等「社會解決方案事業」的核心領域,提供創新的解決方案,為解決社會課題、企業變革與成長做出貢獻。由硬轉軟下一步,NEC 搶進車聯網NEC 表示,此次與住友電工的合作主要有兩大面向。首先,在車聯網領域進行新一代產品的企劃和研發,以住友電工的車載產品技術、交通基礎設施專業為基礎,加上 NEC 的安全、AI 和雲端等最尖端技術,活用雙方強項,目標是研發出高附加價值的新一代產品。其次,為迅速生產 AI 及 IoT 相關產品,雙方將共同研發高階車用軟體。NEC 表示,隨著汽車功能逐漸提升,研發車載零組件或組裝時,對軟體的依賴性提高。NEC 強調,將在車聯網領域,運用 AI 與 IoT 研發出高度安全性的產品,進一步擴大運輸事業範圍。全球車聯網應用,市場成長潛力高全球車聯網產值 2018 年上看 1.2 兆新台幣,加上自動駕駛技術逐漸成熟,車用市場一直是最被看好的人工智慧相關應用之一。市場研究機構 TrendForce 預估,汽車智慧化過程中,所需的資通訊及安全性相關系統及零組件正蓬勃發展,包括雷達、影像或感測器、車用處理器及運算晶片、ADAS 系統、車用顯示器等相關應用,成長潛力驚人。TrendForce 認為,2018 年起,隨著 Level 4 等級的自動駕駛晶片陸續開始出貨後,加上國際陸續修法允許自動駕駛汽車上路,汽車將成為人工智慧、機器學習等新興技術最主要的應用領域。(本文由 數位時代 授權轉載;首圖來源:shutterstock)延伸閱讀: CES...
科技部長陳良基表示,1 月帶國內新創團隊參加美國消費電子展,有 2 家業者獲 CES 大會頒發創新獎,表現亮眼,科技部要在台北小巨蛋打造國際創業基地,預計 3 月或 4 月開張。科技部 1 月首次帶 32 家新創團隊參與 2018 年美國消費電子展(CES),在 CES 新創展區 Eureka Park 設立的台灣國家館「Taiwan Tech Star」吸引超過 4 萬人次參訪,與各國創投洽談超過 2,400 場次,國內外媒體露出 50 餘則,團隊中包括麗暘科技及安盛科技獲得 CES 大會頒發創新獎,總計可為台灣爭取超過新台幣 30 億元商機。陳良基表示,科技實力才是創新創業的後盾,團隊聚焦於智慧醫療科技、AR / VR、人工智慧、穿戴裝置及物聯網等 5 大領域,也緊緊扣住 CES 2018 科技趨勢。陳良基指出,麗暘科技 Robelf 家用型低成本機器人及安盛科技 iXensor 排卵檢測系統分別獲 CES 2018 Innovation Award 及 Best of BabyTech Award,是科技結合創意的絕佳案例。陳良基說,為積極籌備參與 2019 年的...
大數據、機器學習、AI、VR / AR、物聯網、3D 感測等新科技彷彿一夕間百花齊放,各行各業都正在迎接這樣的變革,這是第四波工業革命,許多人認為這一波的規模與衝擊力等同 18 世紀工業革命,然而為工業時代設計的教育體系早已不敷所用,人才定義已被徹底翻轉,教育革命愈來愈迫切。 新科技來勢洶洶,顛覆既有生活模式的同時,也會在國家到個人層面帶來贏家與輸家,當產業界攜手學界,在政府從旁協助下研發各式各樣新技術應用之後,回頭才發現人才缺口居然這麼嚴重,不只台灣如此,其實全世界都有這樣的困擾。許多國家已經體認到,當生活應用全都數位化之後,寫程式變成一種需求龐大的語言能力,沒有人寫程式,等於一個國家沒有軍力,這個仗怎麼打都打不贏。因此美國從歐巴馬時代開始提倡科學教育,認為科學、科技、工程、數學四大學科 (STEM) 必須向下扎根,從公立學校開始推動,在民間也有許多短期培訓機構,搭起業界需求與人才供應斷層上的橋樑。這只是科技顛覆傳統教育模式的冰山一角,隨著 AI、大數據、機器學習等軟體能力的進步,過去很會背誦,很會考試的第一名學生不見得能駕馭資訊時代,因為在工業時代下,過去的教育宗旨是把人類訓練得像機器,現在人類必須更像人,未來的人才必須會思考、分析、解決問題,而不是像機器一樣把任務完美執行。這種綜合思考的訓練是為了得到批判能力,譬如北歐國家教育改革從打破學科開始,訓練學生從一件事情上做不同面向的思考。解決人才從教育開始,或許緩不濟急,所以全球搶人才大戰愈來愈激烈,連國家藩籬保守的日本都放寬工作簽證門檻,積極搶科技人才。面對科技從四面八方來襲,各國都有不同的因應方式,但從未有一篇完整的論述,告訴我們科技顛覆教育的事情是怎麼發生的,轉變幅度會有多大,未來教育應該是什麼樣子。TutorABC 舉辦「科技原力,學習覺醒」論壇試圖梳理一個脈絡,清楚地告訴我們,人才的條件,以及教育應該如何翻轉。教育樣貌:工業時代 VS 資訊時代教育議題專欄作家謝宇程認為,人類社會已經進入資訊時代,但是現在教育還停留在工業時代。工業時代生產特色是交通快速,大量與同質化,因此教育體系的目的是把人類訓練的能像機器一樣運作,滿足分配制度。資訊時代打破教材框架,讓全民都可學習、人人都是教師,賦予學生流動性、無邊校園,學生擺脫學校標籤,還可自訂學程、自願選擇。工業時代的教育不是不好,這只是一個進程,譬如工業時代讓更多人加入勞動市場,讓人類脫貧,生活品質變好,更多人有受教機會,那是一個知識湧現的時代。進入到資訊社會,則是在知識湧現背景下,打破所有工業時代的劃分,未來生活、身份等格式都會完全不同。 TutorABC 營運長沈沛鴻認為,「傳統教育是學知識,現代教育重點是學能力」,這個能力是批判性思考、創意、有效溝通、領導力。沈沛鴻提到,孔子形塑中國教育體系倡導因材施教,但當時教育成本高,因此受教人數極少,屬於菁英式教育,印刷術發明帶來第一次教育革命,教育成本下降,但也導致量產式的平庸化,個性化教育的成本仍然太高。網路帶來第二次教育革命,開始去中心、去仲介、去邊界化,傳統階層化下少數菁英、主流、單向傳播的模式變成扁平化,形成交流平台,民間高手遍地開花。網路讓教育成本下降,共享經濟出現利用剩餘產能又再次壓低成本,真正實現有教無類,因材施教的終極目標。沈沛鴻將教育形式分成線上、線下、自學、向老師學四大象限,因應這股潮流,TutorABC 在線上與向老師學習這個象限佔領一席之地,相較線上、自學領域,譬如大規模開放線上課堂、TED 等形式更有效率。過去的自學是內容提供、內容中心、製造概念、主要是傳授、圖書館式的自我探索,而 TutorABC 開發的線上老師指導,核心是老師提供、服務概念、使用者中心、看重學習結果,是非常個人化,能夠達到因材施教,成本又低的學習模式。TutorABC 進一步導入大數據分析,實現學習、練習、應用、修正模式,紀錄學習歷程,提供個人化排課系統,沒有統一課表沒有教材,是資訊時代下的新式教育模型。AI 才是老師,人類老師成教練到了 AR / VR、AI 等新科技興起,在沒有中間人的教育模式下,過去負責傳道、授業、解惑的老師,以後的功能主要是解惑,傳道與授業變成科技的事。譬如 AI 可以採集學生表情,長期紀錄個別學生的學習狀況,提供客製化的教學進度,沒有標準化的考試,隨著 VR 應用成本下降,未來 VR 讓教材視覺化,彌補想像力的不足,像地球科學這樣的需要 3 度空間想像能力,若有 VR 技術,學習效果會遠比平面文字與圖片更好。這一波教育革命已經有了藍圖,未來含有 AI、感測器的機器人才是老師,他們知識淵博又能因材施教,隨時告訴父母孩子的學習狀況,並且可以將教學內容建議給人類教師。而人類老師會變成教練,根據機器人老師收集的數據,提供分析,從旁協助、指導、解惑,形塑價值觀。科技應用不成問題,謝宇程認為,最大的阻礙將會是人類老師的教學能力。這樣的能力又需要根本上的教育翻轉,訓練未來的老師具有思考、批判、溝通、領導力,才能與機器人合作無間。讓學生知道魚好吃,不是給學生魚竿資策會數位教育研究所所長李進寶認為,現在資訊社會是 Society 4.0,再下一步就會邁向聰敏社會 Society 5.0,若教育與再培訓機制沒有跟上腳步,麥肯錫預期將有 8 億人失業,麥肯錫呼籲人力轉型規模如同二戰後協助大歐洲重建的「馬歇爾計畫」。將來人類不是脫離學校,教育階段就此終止,而是需要終身學習,他認為最重要的是人們必須擁抱科技,還要培養成長心智。李進寶的論點也是在於應把人類培訓的像人,然而我們從沒想過,人性也是需要鍛鍊的東西。台灣吧執行長謝政豪也認為,「未來的教育不是給孩子魚竿,這是一種技能限制,而是讓他知道魚有多好吃,讓他自己想辦法釣到那隻魚。」唯有快樂的過程才會提高效率,認為科技帶來的娛樂化效果必須應用在教育身上,過去的教育實在太過乏味,科技可以解開教育框架,釋放創意。此外,謝政豪認為,教育體制翻轉必須有父母的參與,父母更該擁抱新科技,能夠敢於讓孩子冒險、嘗試錯誤。科技是禮物,恐懼來自人心與壟斷了解科技浪潮下,教育為何該翻轉,如何翻轉之後,回到實際面,在各國倡導 STEM 教育下,寫程式變成必備能力,可能會讓眾多人文學科專長的人感到恐慌。專家們認為,重視寫程式人才並非只是實務上的技能,而是背後的邏輯思維能力。沈沛鴻即言,未來人才有三種,分別是享受 AI 的人,也是被支配的人,第二種是與 AI 協作的人,第三種是控制 AI 的人,主要指工程師、程式設計師等等,至少要做第二種人,學習邏輯思考,具備判斷能力,能夠人機協作。當 AI 發展成熟,很多人擔心科技會反過來支配人類,或是變成有心人利用的工具,地球將萬劫不復。對此,沈沛鴻認為 AI 是福祉,財富分配機制要調整,每個時代都是這樣,但從結果面來看,文明一直在往前進。謝政鴻認為,人類應該先從哲學、政治、經濟層面思考問題,再透過科技手段解決問題,這才是正確的順序。謝宇程認為,人類對未來的恐懼,問題都不在科技,而是人類的壟斷,資訊透明公開可以避免科技走向偏離正軌。...
AI 的發展潛力被各方看好,但 AI 運算所需要消耗的大量能源,卻是發展背後的隱憂。MIT 日前公布新的晶片,比傳統 AI 晶片神經網路運算速度快 7 倍,能源消耗減少 95%,未來如果普及能將 AI 的能耐裝到一般消費裝置如手機上面。臉部辨識、語音辨識這些我們習以為常的運用,背後都是神經網路運算的結果。一般來說神經網路很大,因此要放進手機往往只有簡化的架構,無法發揮神經網路的強大能耐,或是得把資料透過網路傳到資料中心處理。MIT 新的晶片能夠減化資料在晶片的記憶和運算模組傳遞的次數,運算效能增加 3~7 倍,進而加速速度,而且能耗減少 95%。如果 MIT 的新晶片能普及,這些新晶片能驅動本地的神經網路,能放在家裡的智慧裝置。未來人類語音命令能在本地處理,而不必像現在的 Google Home 或是 Amazon Alexa,必須連網傳到資料中心處理,再回傳回來。當 2017 年蘋果發表 A11 bionic 晶片,就具有 AI 能力,用 Face ID 辨識是否是手機的主人。未來類似的應用不會只在 iPhone 上面,或是 Face ID 這單一功能,而是更多裝置和應用。 Neural networks everywhere MIT has a new chip to make AI faster and more efficient on smartphones...
蘋果家用無線揚聲器 HomePod 剛在美國、英國和澳洲等地開賣不久,產品成本結構也跟著曝光。近日科技調研機構 TechInsights 最新分析指出,HomePod 成本價總計 216 美元,占產品售價超過六成,利潤比起對手產品 Google Home、Amazon Echo 要來得低。以 HomePod 售價 349 美元來看,利潤比重占約 38% 為 133 美元,其餘為成本 216 美元。據 TechInsights 估算分析,HomePod 部分成本來自揚聲器內部裝置包括麥克風、高頻(Tweeter)和高振幅低頻(Woofer)揚聲單體、電源管理零組件等,成本約 58 美元;一些細部零件如 HomePod 頂部的 Siri 特效燈光裝置,成本價則約 60 美元;特製 A8 晶片價約 25.5 美元、外罩及網狀編織層約 25 美元,而生產、測試和包裝成本則為 17.5 美元,再加上其他原物料成本,總計成本占售價比重約 62%。▲ HomePod 裝置外罩的網狀編織層▲ Siri 特效燈光裝置位於 HomePod 頂部報告指出,Google Home 和 Amazon Echo 的產品利潤占比分別為 66% 和 56%,而...
科技始終來自於人性,因此在 AI 工具的協助下,現在有一群人專門拿艾瑪·華森、艾米莉亞·克拉克、娜塔莉·波曼等女明星的臉移花接木,放在 A 片女演員的頭上,製作出各種詭異的影片,在 Reddit 論壇引發換臉熱潮,餵養男性網友的瘋狂幻想。這一切是怎麼發生的?2015 年,Google 宣布將釋出開發 AI 演算法的內部工具 TensorFlow,進而改變了全世界的 AI 研究與發展方向。用 Google 執行長的話來說,AI 科技的影響力可能如電力般深遠,而 Google 提供的工具是開放、免費的,入門 AI 的門檻也從博士學位降低到只需要一台筆電。但 TensorFlow 的力量,現在已經超出 Google 的控制。兩年多來,學術界和矽谷用 TensorFlow 締造不少引人注目的成果,但匿名 Reddit 論壇用戶 deepfakes 成了最新焦點。Deepfakes 以 AI 軟體為基礎,打造了幾乎能自動無縫縫製任何臉部影像到影片的功能。你可以輕易想像這會被拿來做什麼事。《Motherboard》報導,這個軟體被拿來把任何人的臉(例如女明星或臉友)放上色情片女演員的身體。《Motherboard》首先披露消息後,Deepfakes 創造了自己的 subreddit,累積 9.1 萬多名訂戶。另一名 Reddit 用戶 deepfakeapp 也釋出一個叫做 FakeApp 的工具,讓任何人都可以下載這個 AI 軟體、自行使用。目前 Reddit 已經禁了這個社群,理由是這違反了該網站對於非自願色情的規範。根據 FakeApp 的使用指南,這項軟體是以 TensorFlow 為基礎打造的。Google 員工曾以稍微不同的設定和主題,用 TensorFlow 做過類似的事,訓練演算法從塗鴉中產生影像。Deepfakes...
目前,全球許多大型超市為了節省人力成本,都會設置自助結帳區,顧客只要把商品放上自助結帳區的掃描台,讓機器掃過條碼和秤重後,就能把商品一樣樣裝進袋子,等機器顯示今天花了多少錢再付款就好。然而,無人看管下順手牽羊的行為是家常便飯,各式各樣五花八門的偷竊手法也推陳出新……為了節省人力成本 自己買什麼自己結你比較喜歡到超市自助結帳區結帳,還是比較喜歡和收銀員面對面呢?許多大型超市為了節省人力成本,設置了自助結帳區,讓顧客在無人看管的情況下結帳。然而,這乍看方便的表面下,卻隱藏了一個醜陋的事實──順手牽羊的行為屢見不鮮,而且還發展出各式各樣技巧。今天你想怎麼偷?首先,第一招就是「香蕉騙術」,也就是把以重量計算要價昂貴的商品放上秤重台,選單上點選便宜的商品來代替。舉例來說,有的顧客會把每磅要價 13.99 美元(約台幣 414 元)的丁骨牛排放上秤重台,當作每磅只要 0.49 美元(約台幣 14 元)的香蕉來秤重。傳球、快手交換再來,故意不把商品放上掃描區,而是偷偷放入袋中,這招叫「傳球」。還有一招得多費點工夫:把某樣便宜商品的條碼撕下,偷天換日蓋在昂貴商品的條碼上,這招叫「快手交換」。不過如果你要用這招,得確保兩件商品的重量差不多,這樣放在自助結帳感應區時才不會出現「不明物品」的警告。▲ 自助結帳區通常會有裝袋區、感應區和秤重區,消費者點選螢幕品項後把商品放到秤重區,就可以知道要付多少錢。(Source:Flickr/Karl Baron CC BY 2.0)20% 的人承認偷過東西究竟,在自助結帳區順手牽羊的情況有多普遍呢?專門提供網路消費者優惠券的公司 Voucher Codes Pro 發了一份匿名線上調查給 2,634 個人,其中有大約 20% 受訪者承認他們曾經利用自助結帳偷過東西,這些人中有超過一半的人表示,他們成功擺了自助結帳系統一道,且超市警報系統根本就不太可能抓得到他們。沒經過掃描就帶走2015 年,英國萊斯特大學的犯罪學家也做了一份拿著手持掃描器自助結帳的研究。檢視一年中 1 百萬筆加起來要價 2,100 萬美元(約台幣 6 億 2,132 萬元)自助結帳的帳單後,研究人員發現有大約 85 萬美元(約台幣 2,515 萬元)的商品被順手牽羊,沒有被掃描器掃過就帶出了商店。原本不想偷東西的……萊斯特大學犯罪學家總結, 因為在自助結帳區偷東西相對容易,鼓勵那些不會偷東西的人以身試法,這些人並非一開始就抱著偷東西的念頭來購物,而是在最後結帳時想著不如給自己一點「優惠」。一名商店員工告訴研究人員:「原本不打算偷東西的人可能會發現……當我買了 20 樣東西時,我可以讓 5 樣東西免費。」滋生犯罪的環境研究人員進一步表示,或許這些採用自助結帳區的超市得為營造一個容易犯罪的環境負責。研究指出,這些超市為了減少人力成本,創造了一個「滋生犯罪的環境」,這個環境把利益擺在社會責任之上。▲ 竊案頻傳後,有的超市選擇重回收銀員懷抱,取消了自助結帳區。(Source:Flickr/Paul Townsend CC BY 2.0)重回收銀員的懷抱有鑑於此,有的超市乾脆把自助結帳區收起來,認為這不僅沒有節省消費者大排長龍等待的時間,又讓他們蒙受商品失竊的損失。連鎖超市 Big Y 和艾伯森(Albertsons)都取消了自助結帳區,重回收銀員幫顧客結帳的懷抱。明年全球上看 32 萬台不過,在這個凡事講求自動化的時代,自助結帳機的數量仍然不斷上升,明年全球可望達到 32 萬 5,000...
Google 旗下 DeepMind 公司開發出一種透過分析醫學影像診斷疾病的人工智慧產品,這是人工智慧技術在醫療健康領域的一次重要試水。總部位於倫敦的 DeepMind 透過處理數以千計的視網膜掃描影像,訓練出一種人工智慧演算法,可比人類醫生更高效準確檢查出眼部疾病。DeepMind 與 NHS 和全球最好的眼科醫院之一──倫敦 Moorfields 眼科醫院,進行了長達兩年的合作,驗證這項演算法的有效性。得到積極的回饋後,DeepMind 向醫學雜誌提交了這項研究成果。如果這項結果通過學者的同行評議,就能在幾年內進入臨床實驗階段。DeepMind Health 臨床主管 Dominic King 告訴英國《金融時報》:「你將在未來數年間,看到我們借助人工智慧技術在醫學影像這樣的專業領域取得重大突破。未來我們在診斷疾病方面將變得更敏感精準,機器學習將扮演非常重要的角色。」DeepMind 的演算法使用 Moorfields 眼科醫院提供、經過眼科醫生嚴格標記的匿名資料進行訓練。目前正和包括 Moorfields 等醫院商談,合作進行臨床實驗。醫學影像的數百萬畫素裡藏著非常豐富的資訊,機器學習演算法可透過學習和分析這些資訊,診斷 3 種最嚴重的眼科疾病:青光眼、糖尿病視網膜病變和老年黃斑部病變。Moorfields 研發總監 Peng Tee Khaw 表示:「我們對這項研究成果非常看好,相信能幫助世界各地的人們避免不必要的視力損傷。我們希望明年能在同行評議的期刊發表研究成果。」Dominic King 介紹,人工智慧是一項通用技術,意味著它可以應用到其他各類別的影像。DeepMind 表示,接下來將分別與倫敦大學醫院和倫敦帝國理工學院合作,訓練分析 X 光影像和乳腺 X 光的演算法。Google 辦公室一位資料標記顧問表示,「標記頭頸部癌症的影像每天需耗費 5、6 個小時,醫生通常會在下班後做這件事情。NHS 現在承受非常巨大的醫療壓力,於是人工智慧應運而生。」隨著世界人口日益增長和人口老齡化加劇,醫療衛生系統已不堪重負。世界各地的醫院開始討論,是否可以用人工智慧減少一些重複性工作。在此背景下,DeepMind 的健康衛生團隊迅速擴充到 100 人,3 年前這個團隊只有 10 人。大型科技公司和醫院之間的關係非常微妙。2017 年,英國資料保護監督機構做出一項裁決,指責 NHS 的一家信託公司向 DeepMind 提供 160 萬患者的醫療紀錄觸犯了法律。據了解,這項裁決涉及 DeepMind 的醫療診斷...
深度學習技術的成熟,大幅提升影像與語音辨識的精準度,也再度掀起了市場對人工智慧技術的強烈關注。全球瘋 AI,台廠也不例外隨著 Amazon、Google、IBM 與 Microsoft 等國際大廠的加入,面對龐大的人工智慧市場商機,包括台灣等來自世界各地的企業,都想透過圖像辨識等人工智慧技術加值產品服務能量。不過,礙於人才(技能)不足、對深度學習模型掌握度不高、可用資料庫不齊全等挑戰,如何將技術真正落實在產品應用中,以充分滿足使用者需求,仍是許多對 AI 大餅躍躍欲試的廠商所須攻克之處。全球市占第一的台灣網路儲存伺服器品牌群暉科技(Synology)日前推出搭載深度學習影像辨識的相片管理服務── Moments,僅運用四人團隊,在不到一年的時間之內就將深度學習技術應用於服務,其關鍵即在於運用自行建置的深度學習模型,以提升圖像辨識精準度。優化圖像辨識精準度的兩大祕訣──自建與訓練深度學習模型對期望提升人工智慧圖像辨識能力的企業來說,如何自建深度學習模型,以及如何訓練模型來優化圖像辨識精準度是最關鍵、也最具挑戰的工作。企業資料科學家得先依據目標建立適合的演算法,並建構一套可以自行分析數據資料、找出特徵值的深度學習模型,然後透過大量有標記(Label)的數據資料(又稱資料集)持續不斷的訓練、優化深度學習模型對圖像辨識的精準度。現成模型通常都有原先設定的目標,如「物件偵測:偵測每張照片裡面的物件與位置」,但企業開發新應用時希望建立的演算法往往與現成模型原先目標不相同,導致同一張圖像套入模型或演算法出現不同的辨識結果,大幅影響將深度學習技術導入產品的可能性。以群暉科技為例,希望建立的演算法目標是「從一張照片中辨識出多個物件 / 場景」,但這與當前學界研究中盛行的「影像分類:一張圖片即一個主題」等演算法的目標不同。為了讓研發結果能與產品服務接軌、滿足使用者需求,群暉科技才決定自行開發模型。然而,另一個困難點則在於訓練用資料集的可用性問題。深度學習模型能夠成功實現智慧辨識的關鍵,在於資料的訓練過程,而訓練用資料中已經存在的標記,將很大程度地決定最終訓練結果能否符合目標。群暉科技在取得訓練用數據資料時,便因為資料標記方式與訓練目標不一致,於是重新標記每一筆資料,並且另外準備了一份專門用來驗證辨識成果的驗證用資料集,才得以順利進入正式的模型訓練階段。值得特別注意的是,為提升深度學習模型的圖像辨識精準度,研發團隊通常都將花費許多時間「調整模型參數、重新訓練模型與驗證模型精準度」,才能從中找出最佳參數,並導入於產品或應用服務中。從跨界合作取代單打獨鬥 人工智慧就這麼做深度學習模型的研發費時費工,群暉科技花了近一年的時間,透過產學合作的方式與台灣大學資工系教授徐宏民的研究團隊合作,加速整個產品開發;但是前瞻深度學習技術還是得面對群暉產品、客戶上的諸多要求,因此內部的人工智慧研發團隊得自行落實模型開發與建立。「很令人興奮的產學合作經驗,群暉在深度學習技術從無到有,甚至目前各項視覺辨識指標都達到世界級的水準。」徐宏民表示,在協助群暉科技研發團隊採用合適的視覺辨識技術之際,也發現了其他重要的研究議題,已帶回實驗室進行前瞻的研究工作。群暉科技軟體開發部協理高士軒說:「在開發 Moments 的經驗中,我們發現想以人工智慧提升服務能量,除了要成立人工智慧研發團隊、還得清楚定義目標,並且持續不斷的予以優化。」高士軒亦認為,因應需求差異,每個產業所需要的深度學習模型都將有所不同,為加速人工智慧相關產品的開發腳步,建議除成立專門的研發團隊,還可進一步尋求外部技術支援;群暉科技便是在徐宏民教授的專業指導下,得以在短時間內成功推出搭載人工智慧技術的全新應用服務。 ▲ 全新智慧照片管理套件 Moments 透過深度學習技術,主動辨識出人像、地點、主題等,分類照片不費吹灰之力。(Source:Synology)對欲導入視覺辨識等人工智慧技術的企業,徐宏民提出三點建議,首先是相信台灣具有相關領域世界級的技術研究能量;其次是確保高階主管對深度學習等技術的認可並願意投資;最後是將深度學習等技術放到產品藍圖,而非只是單純做研究。展望未來,隨著機器人、自動車、智慧工廠與智慧醫療等應用的崛起與普及,視覺辨識等人工智慧技術將被廣泛地應用在各個地方,不過,由於應用領域差異,所需的視覺辨識技術將有所不同,相關領域企業可透過產學合作等方式及早投入,提升對視覺辨識等人工智慧技術的掌握度,從而開創專屬藍海市場。(首圖來源:Synology)
據美媒 The Verge 2 月 5 日報導,Intel 即將上市一款智慧眼鏡,名叫 Vaunt。記者 Dieter Bohn 以長文曝光 Vaunt 的上手體驗,說明 Vaunt 的硬體、軟體和應用等方面。結合外媒資訊與以往報導發現,Vaunt 這款眼鏡和 Google Glass 及目前所看到的智慧眼鏡或 AR 眼鏡思路都不一樣。2015 年 Intel 收購智慧眼鏡公司 Recon 起,就一直傳言 Intel 將推出智慧眼鏡,時隔 3 年,我們終於看到產品。概括來說,這款眼鏡有以下特點: 外觀類似普通眼鏡大小,重量僅 50g。 眼鏡沒有裝載鏡頭,這和大部分智慧眼鏡、AR 眼鏡不同。 採用雷射投影,直接投射在人眼視網膜。 採用 Intel AI 晶片,有多種感測器,能感知位置、運動資訊。 藍牙連線智慧手機使用,類似智慧手錶可以執行多種 App 功能。 全自訂,需要測量瞳距,支援近視眼鏡/普通眼鏡,或將在眼鏡店銷售。 如果你對 Google Glass、Spectacles、Magic Leap 這些標誌性智慧眼鏡、AR 眼鏡有了解,你會發現,Intel 這款 Vaunt 智慧眼鏡簡直是天外飛仙!智慧眼鏡首先要能戴Google Glass 給了我們很多幻想,AR 眼鏡將從各方面改變我們的生活。而 Intel 認為,改變我們的生活之前,需要改變智慧眼鏡的外形,使其真正應用於生活。Intel 創新產品部門負責人 Itai Vonshak 告訴 The Verge,「頭戴產品很難做是因為人們把一件產品放在自己頭上時,會付出很多其餘的社交顧慮,因為這些頭戴產品與佩戴者的個人形象息息相關。」目前,大部分智慧眼鏡由於追求科技感和炫酷功能,通常戴起來很嚇人。Google Glass 的失敗在於,沒有提到到眼鏡上的鏡頭,總讓其他人擔心隱私被侵犯。眼鏡前方的顯示元件顯得很有科技感,卻讓人覺得目的感太強,戴上 Google Glass,會帶來很多社交負擔;Snap 的 Spectacles 設計成時尚太陽眼鏡,曾經被稱為是最像智慧眼鏡的設計,然而或許還是「太過了」;HoloLens 基本等於將一台微型電腦放在頭上;而 Magic Leap One 的原型一公布,過於像外星人的外形就被大大吐槽。Itai Vonshak 認為,Intel 想要的智慧眼鏡是「零社交成本」,所有設計都去除「科技」感,要變得和普通的近視眼鏡沒有差別。因此,Vaunt 眼鏡上沒有鏡頭、沒有按鍵、沒有觸摸螢幕、沒有 LCD 顯示螢幕,更沒有任何突出的零件。The Verge 記者稱 Vaunt 戴起來與普通眼鏡沒有差別,重量僅 50g,雖然比一般眼鏡重一些,但是戴一整天也不會有疲倦感。目前,Vaunt 展出幾款不同的外形設計,據說還會有很多種不同外觀。雷射投影成像Vaunt 設計成普通眼鏡一樣,那麼有哪些特殊功能吸引人拋棄普通眼鏡呢?依然和所有智慧眼鏡的初衷一樣,將人從手機螢幕解放,直接在人眼前提供數位資訊。Google Glass 的關鍵在於單眼顯示元件,目前 AR 眼鏡都在追求更輕便、更小、視角更廣的顯示元件,而 Vaunt 另闢蹊徑,採用雷射投影成像。Vaunt 眼鏡的右邊裝了一個電子元件,可以傳送低功率的雷射射線(VCSEL)。該雷射將 400×150 像素的紅色單色影像照射到眼鏡右側鏡片上的全息反射鏡,然後影像直接反射到你的視網膜。據介紹,這種雷射是一級季雷射,且功率很低,不會對人眼造成任何傷害。Intel 智慧穿戴裝置負責人告訴 The Verge,「我們不得不整合非常非常節能的光源,用於實際上繪制影像的 MEMS 裝置,我們使用內嵌鏡片的全息反射鏡將正確波長反射回人的眼睛。該影像稱為視網膜投影,所以影像實際上是『塗』到視網膜後面。」由於直接放在視網膜上,所以影像始終在你的視線裡。因此,Vaunt 的眼鏡需要全自訂,測量配戴者的瞳距之後,由工程師製作完成。Intel 認為,如果讓數位資訊一直出現在眼前會很干擾,因此實際上,數位資訊是出現在眼鏡下面大概 15° 的位置,當人往下看時,資訊會顯示,當你目視前方時,資訊會消失。這樣人性化的設計還有很多。Vaunt 眼鏡還加入一些感測器,例如加速器、陀螺儀等,眼鏡會清楚知道你的頭部運動,由此判斷如何合適地提供資訊。之後或許還會加入麥克風和語音互動,和 Alexa 這種語音助手互動。由於沒有控制器,Vaunt 透過藍牙與智慧手機相連,獲得智慧處理能力。Vaunt 設計成開放給 App,可以對應很多智慧手機功能。關注「Moments」應用場景說了外形和硬體,那麼 Vaunt 究竟有哪些應用場景?Magic Leap 的 CEO 羅尼‧阿伯維茲(Rony Abovitz)反覆強調 AR 眼鏡的應用場景,想要將其用在遊戲、社交、音樂等,為生活帶來真正神奇的變化。而 Magic Leap One 可是採用多顆鏡頭和感測器,但簡化的 Vaunt 能做到什麼呢?它能超越 Google Glass 的願景嗎?會成為下一個 Google Glass 嗎?The Verge 記者說,Intel 目前並不想詳談應用方面。從他的體驗中,我們看到,目前 Vaunt 可實現的場景包括:在你出門時顯示路線資訊,即時導航;來電提醒;雙手沒有空時顯示航班資訊;做菜時顯示食譜等。Intel 希望 Vaunt 可解決人們生活中具體時刻 Moments、具體場景的需求,而不會有人沉迷於 Vaunt,因為你還是可以用電腦和手機來做到其他功能。也有一些設想中的複雜場景:例如當你走在街上看到一間餐廳,Vaunt 可直接顯示 Yelp 關於該餐廳的資訊。你的手機知道你的位置,而你的眼鏡知道你在看什麼方向,因此這些資料可幫助創造這種應用場景。但還得有人來實現,而 Intel 並不打算親自做。Intel 希望透過搜尋開發者和合作夥伴,共同完成硬體和軟體生態。目前 Intel 會開放「開發者項目」,類似 Google Glass 的探索者項目,讓早期開發者先拿到開發者版本,一同開發軟體。Intel 正計劃出售 Vaunt 部門大部分股權,吸引更多投資者加入。Intel 並不想大量資金支援,而是尋求在有強大銷售管道、硬體、軟體的合作夥伴來共同促進 Vaunt 發展。由於 Vaunt 需要測量瞳距,因此最佳的銷售管道自然是各大眼鏡行,而這樣的傳統通路並非 Intel 擅長。The Verge 記者認為 Vaunt 是他戴過最舒服的智慧眼鏡,體驗比他在 CES 嘗試的智慧眼鏡都好。看來,Intel 的智慧眼鏡能發揮效應,還得看搭載的 AI 晶片如何與智慧手機聯合,解決人們生活場景的問題。不然,我們或許還是更期待,有複雜感測器、外觀詭異,像 Magic Leap One 這樣的 AR 眼鏡,畢竟不僅希望智慧眼鏡給我們輔助資訊,我們也期望 AR 眼鏡能讓我們真正融合虛擬與現實。 INTEL MADE SMART GLASSES THAT LOOK NORMAL (本文由 雷鋒網 授權轉載;圖片來源:影片截圖)延伸閱讀: 英特爾傳分拆 AR 部門,拚智慧眼鏡年內上市