星期三, 6 5 月, 2026

旅 TRIVEL

服務型機器人 Pepper 進軍台灣三年,持續在零售服務業落實新應用、發揮影響力。近日 Pepper 進駐 LEXUS 士林新據點,以智慧管家之姿推出桌邊點餐服務,為車主提供更貼心又具效率的高品質服務。Pepper 點餐服務是由機器人自動化服務專家、Pepper 在台業務負責商沛博科技,以及 LEXUS 共同合作推出。該服務結合物聯網技術,並串接 LEXUS i-Lounge 智慧管家系統,當車主使用服務時,只需按下桌上的無線智慧按鈕,Pepper 就會透過影像辨識技術,自動判斷行進路徑並移動到指定桌次;當遇到人或障礙物時,內建避障功能就會適時停止以保護 Pepper 與顧客安全。Pepper 會根據車主的點餐記錄、紅利點數等資訊提供個人化推薦,提升整體服務運作效率。「現在在談 AI 或機器自動化,其實是在思考如何重新調整人的時間及能力,」沛博科技總經理林義勛表示,公司的核心利基點在於掌握不同工具、協助企業了解痛點與需求,提供精準的解決方案。過去三年,Pepper 做為台灣產業的即戰力,聚焦金融、零售、健康照護、教育等領域,也先後推動「Pepper 開發夥伴計畫」、啟動全台首間實驗室 Pepper Lab,鼓勵更多年輕學子投入 AI 相關產業發展、加速落實 AI 應用走向商業化,期望翻轉台灣產業生態。沛博科技表示,期望藉由人機協作為未來生活創造美好想像與體驗,未來也將持續蒐集各方回饋,深化與拓展機器人移動服務應用,並整合人臉辨識、語音機器人(Chatbot)、企業即時通訊等技術,推出更多對應的服務內容。(首圖來源:沛博科技)延伸閱讀: 政治大學與沛博科技啟動台灣首站 Pepper Lab,打造智慧機器人應用開發殿堂 Pepper 開發夥伴計畫啟動,首波釋出開發機 50 台 Pepper 進軍海外在台首發,目標成為「台灣產業即戰力」
科技部價創計畫成功協助教授技術創業!國立交通大學吳炳飛教授創業團隊「影像式生理訊號健康管理系統」技術,能以非接觸方式量測心跳、血壓等生理訊號,達到醫療級精準度,在醫療、金融等領域應用潛力高,成立「鉅怡智慧股份有限公司」(FaceHeart)。公司成功獲得國內大廠──聯發科投資,並取得上海商銀服務訂單,公司商業估值已達新台幣 5 億元。AI 技術判讀影像取得精準生理數據,市售攝影機可搭配運用一般市售各種智慧手錶、手環,在劇烈活動下難以提供精確偵測數據,使用者的穿戴習慣也會影響數據的蒐集品質。交大吳炳飛教授團隊的創新技術,只需要透過攝影機「看」人臉,就可以在使用者毫無感覺的狀態下取得相關資訊,再由團隊演算法分析出心跳、血壓的數據,在靜止狀態下可達 2~3bpm 醫療級的精準度;即使在跑步等運動狀態下,所得數據仍可達可用範圍。此外,團隊技術不需使用高精度攝影機,拍攝速率 30fps 等級攝影機即可量測心跳。吳炳飛教授表示:「這套系統的軟硬體都是交通大學獨立研發,其運算晶片是與聯發科合作。在研發過程中曾面臨許多難題,例如在光線不佳晚上或關燈房間中,如何保持精準量測;市售的攝影機都會自動調整光圈、快門,需克服這些因素對 AI 判斷的影響。種種的困難讓研究團隊歷時 5 年,在科技部學門研究計畫及價創計畫的支持下,才成功讓技術順利商品化。」長照、金融領域應用潛力高,吸引廠商投資與訂單台灣已邁入高齡化社會,長照的推行以及相關技術的突破,一直都是各大廠商研究與開發的議題。吳炳飛教授技術所衍生之新創公司──鉅怡智慧,技術應用潛力已獲國內大廠聯發科肯定並予以投資。在金融領域方面,團隊也與上海商銀合作,在新設立的智慧分行中,導入影像式生理資訊偵測系統,運用生理資訊強化情緒辨識,加強銀行對客戶的 KYC 認證,ATM 防詐騙行為與 VIP 專屬服務,提供銀行客戶嶄新數位金融服務體驗。本項技術已在台中與新竹數位分行落地。許有進指出,企業參與新創已經是國際的趨勢,許多國際知名新創的募資,背後都可以看到大企業的角色。價創計畫推動兩年多來累積已有 10 件個案出場,合計募資金額達新台幣 10 億元。除了國內外天使投資與創投投資外,多數個案都有國內企業參與。學界技術創新創業獲得企業支持,相信未來將能帶動創造更大的社會效益。
聲音可以暴露很多訊息,麻省理工學院(MIT)最近一項研究發現,經過訓練的 AI 不僅能從聲音辨別出性別、年齡和種族,甚至能猜出這人大概長什麼樣子。這些「祕密」都藏不住了。研究人員用一個由數百萬 YouTube 影片剪輯組成的數據集,自我訓練一名為 Speech2Face 的神經網路模型。從最終結果來看,6 秒語音還原人臉的效果還算不錯。▲ 一共 6 組結果示範,左邊是影片人像,右邊是 AI 根據聲音還原的效果。(Source:MIT,以下同)Speech2Face 模型的運作大概分為兩部分,一是語音編碼器,負責分析輸入語音,預測相關的臉部特徵;另一個則是臉部解碼器,整合輸入的臉部特徵產生圖像。MIT 研究團隊指出,他們目的不是為了準確還原說話者的模樣,Speech2Face 模型主要是為了研究聲音跟相貌之間的關聯性。從訓練結果看,Speech2Face 較能辨識性別,對白種人和亞洲人也較能分辨,另外對 30~40 歲和 70 歲的年齡段聲音命中率稍微高一些。▲ Speech2Face 似乎傾向將 30 歲以下的說話者年齡猜大,將 40~70 歲的說話者年齡猜小。除了比較基礎的性別、年齡和種族,Speech2Face 甚至能猜中一些臉部特徵,比如說鼻子結構、嘴唇厚度和形狀、咬合情況,以及大概的臉部骨架。基本上輸入的語音時間越長,AI 準確度會越高。當然 AI 的「聽覺」也會出錯。研究人員發現,它會將未經歷變聲期的小男孩辨識為女性,判斷錯誤一些說話者的口音,也會搞混年紀……這一點完全可以理解,畢竟聲音還是會騙人的,夜夜伴你入睡的萌妹奶音主播,實際上說不定是個漢子。▲ Speech2Face 的一些錯誤範例。研究人員指出,Speech2Face 的局限性,部分原因來自數據集的說話者本身種族多樣性不夠豐富,這也導致它辨認黑人聲音的能力比較弱。至於他們對這個 AI 模型的應用,有個很可愛的想像:只需要說幾句話,未來 Animoji 和 Gboard 等功能或許就能根據聲音生成你的卡通頭像。(Source:Speech2face)不管你信或不信,藏在我們聲音的祕密都正被開發研究,投入各式各樣的場景應用。卡內基美隆大學計算機副教授 Rita Singh 也主導過一項類似研究,能從聲音猜測說話者的年齡、身高、體重、環境噪音和說話時的空間類型等資訊。她認為聲音藏著豐富而獨特的資訊,「就像你的 DNA 或指紋」。這項技術後來升級成跟 Speech2Face 相似的語音分析系統,還原人臉的準確度達到 60%~70%,目前正被美國海岸警衛隊用於縮小調查範圍找到惡作劇報警者。據稱,他們每年會接到約 150 通惡作劇電話,這被視為浪費警力,甚至會遭到刑事訴訟。目前匯豐、渣打、摩根大通等銀行都在用「聲紋」當作身分辨識方式(voice ID)之一,可檢測你的帳戶是否被盜。大都會人壽保險公司的客服中心,會用一套 AI 系統幫忙識別客戶的情緒和感受,平均準確率達到 82%;一些保險公司甚至會藉此判斷來電者有沒有騙保意圖──如果說話時出現微小停頓,很可能就是在提供虛假資訊。除此之外,經過訓練的 AI...
史丹佛大學官網 7 日發表了吳恩達團隊的最新成果:放射科醫師藉助人工智慧演算法,改進腦動脈瘤診斷──腦動脈瘤是大腦血管的隆起物,可能會滲漏或破裂,導致中風、腦損傷或死亡。這項成果發表在 JAMA Network Open。史丹佛大學統計學研究生、論文聯合第一作者 Allison Park 說,「人們對機器學習在醫學領域的實際作用有很多擔憂。這項研究顯示人類如何在人工智慧工具的幫助下參與診斷」。據了解,工具圍繞名為 HeadXNet 的演算法構建,可提高臨床醫生正確辨識動脈瘤的能力,相當於包含動脈瘤的 100 次掃描中發現另外 6 個動脈瘤,除此之外,還能提高臨床口譯醫生的共識。▲ 腦部掃描中,HeadXNet 使用透明的紅色高光指示動脈瘤的位置。雖然 HeadXNet 這些成功實驗很有價值,但研究團隊提醒說,需要進一步調查,以便在實際臨床部署前評估 AI 工具的強健性,因為不同醫院有不同裝置硬體和成像協定,研究人員計劃透過多中心合作解決這些問題。醫師在 AI 幫助下降低誤診率梳理、搜尋動脈瘤腦部掃描結果,意味著要瀏覽數百幅影像。動脈瘤有多種大小和形狀,並以不同的角度向外膨脹──有些動脈瘤在一系列類似電影的影像中不過是個光點。「搜尋動脈瘤是放射科醫生最費力、最關鍵的工作之一,」放射學副教授、論文聯合進階作者 Kristen Yeom 說,「考慮到複雜的神經血管解剖結構的挑戰,以及遺漏動脈瘤可能導致的致命後果,這促使我將電腦科學和視覺的進步成果應用於神經成像。」Yeom 將這想法帶到史丹佛機器學習小組執行的 AI for Healthcare Bootcamp,由電腦科學副教授兼論文共同進階作者 Andrew Ng(吳恩達)領導。小組核心挑戰是建立人工智慧工具,準確處理大量的 3D 影像並補充臨床診斷實踐。▲ HeadXNet 團隊,左起吳恩達、Kristen Yeom、Christopher Chute、Pranav Rajpurkar、Allison Park。為了訓練演算法,Yeom 與 Park 及電腦科學研究生 Christopher Chute 合作,收集 611 例頭部 CT 血管造影偵測到的臨床意義顯著的動脈瘤。「我們手工標記每個體素──相當於一個像素的 3D 影像──是否屬於動脈瘤的一部分,」Chute 說,「建立訓練資料是相當艱鉅的工作,資料量很大」。經過訓練後,演算法確定掃描的每個體素是否有動脈瘤。HeadXNet 工具的最終結果是演算法的結論以半透明高亮顯示在掃描頂端。這種演算法決策的表示形式,使臨床醫生在沒有 HeadXNet...
倉儲機器人的發展就像雨後春筍。而發展最快的,莫過於 2012 年便開始布局自動化物流系統的亞馬遜了。近日外媒 Wired 的報導,進一步展示了亞馬遜物流倉庫機器人怎麼工作。其實在這個倉儲最重要的工作,就是分揀。也就是將包裝好的貨物,按照不同收貨位址,送上開往不同地區的貨車。這些機器小車的主要作用,也是這個。人類有了這些機器人後,就只要站在原地將包裝好的貨物按順序放上面前的機器人,工作就算完成了。接下來,這些機器人就會在廣達 125,000 平方英呎的場地內自動規劃路線,並將貨物投入對應的 300 多輛貨車。那麼第一個問題就來了。這些機器人怎麼認路?首先,亞馬遜為這些機器人配備一套雲端線路管控系統。管控系統就像鐵路排程中心,需要安排每台機器人每次工作的路線,還需要即時監控整個運輸網路,當哪裡出現意外,發生壅塞時,也會及時生出備案,確保系統正常執行。另外,這些機器人還有專屬的「盲道」指路。亞馬遜的分揀中心地板看上去就跟普通水泥地沒什麼差別。但如果仔細看,可發現地面貼著一個個二維條碼。這些二維條碼就是機器人的「盲道」。每當機器人到達貼有二維條碼的位置,就會用「肚皮下」的掃描器掃描。二維條碼也會告訴機器人接下來應該「繼續向前」還是「向左/右彎」。接到指令後機器人就會按指示前進,直到遇到告訴它「已到達終點」的二維條碼。當機器人將貨物運送到不同終點後,機器人就會透過履帶將貨物送入終點的滑槽,貨物順著滑槽落入開往不同地區的貨車。機器人的分揀貨物工作就完成了。相信有人會有疑問:盡可能投放更多機器人,並把每台機器人的速度調得更快,那樣分揀系統效率不就更高嗎?其實不是。想想每座大城市都有塞車問題,很多人有車,也走得不慢,但交通系統依舊那麼低效,人們依舊每天浪費兩三個小時在通勤。這個道理放在這些機器人也是一樣。亞馬遜表示,整個物流中心共有 800 台機器人,但為了更高效率,亞馬遜往往只會投放 400~500 台。亞馬遜機器人技術應用進階經理 Ryan Clarke 表示,合理調配流量、最大限度減少塞車,相當複雜。為了明白一次投放多少機器人、速度設定多少,整個分揀系統的效率最高,亞馬遜還有個專門模擬系統。在模擬系統的幫助下,可更直覺分析不同訂單量下,或更多複雜條件下如何配置機器人最合理。除了亞馬遜,中國也有電商和物流公司配備類似的自動化系統,以應付日益劇增的物流壓力。例如京東位於北京的亞洲一號智慧物流中心地狼倉,就透過機器人自動化改造,效率提升 8 倍。從消費者下單完成的那刻開始算,不到 1 小時,就能完成揀貨、包裝、分揀及裝車。又例如申通在天津的轉運中心,採用 AGVS 倉儲系統後,每日有近 300 台機器人同時運作,同時也將人力在同等工作量下,由 150 人縮減至 30 人。▲ 京東倉儲機器人。(Source:京東)顯然最後還是回到老生常談的問題,更高效的機器人,是否會在這些工作完全取代人類?答案是對的。但也不代表人類就被淘汰。美國前總統歐巴馬的數位經濟特別助理 R. David Edelman 表示,自動化代表的僅是技能轉移,並非工作轉移。人類也可藉此在同一份工作獲得進階技能。這是什麼意思?實際上亞馬遜內部已經體現了。機器人的介入,讓員工不再需要在 125,000 平方英呎的倉儲中心中走來走去分揀貨物,反而學到排查、處理機器人故障等進階技能。亞馬遜全球消費部門首席執行長 Jeff Wilke 近日接受 CNBC 採訪時表示,機器人不僅沒有取代工人,反而幫助其中一些工人獲得更多工資。(本文由 愛范兒 授權轉載;首圖來源:shutterstock)延伸閱讀: 亞馬遜倉庫的「小革命」:服務好機器人,才能讓人類更安全
有關科技公司與政府的合作往往會引起更多關注,特別是擔心尖端技術被應用在執法部門和軍事工業,有可能帶來不可估量的負面影響。但並非所有科技公司都會對這些極具爭議性的業務敬而遠之,亞馬遜雲端服務部門負責人 Andy Jassy 明確表態,亞馬遜會與任何遵守法律的政府部門合作,也相信後者會負責任地使用尖端技術。過去一年亞馬遜旗下有多個與政府部門的合作被曝光,其中備受關注的是亞馬遜為執法機構提供臉部辨識技術支持和系統,俄勒岡州和佛羅里達州的執法部門都使用亞馬遜提供的臉部辨識身分驗證系統 Rekognition。反對者認為在公共場所大規模使用臉部辨識系統,有可能侵犯公民的隱私,技術的誤差會導致錯誤辨識和匹配,支持者則認為臉部辨識系統可提升公共安全。亞馬遜雲端服務部門 AWS CEO Andy Jassy 在回應執法部門使用臉部辨識系統所面對的質疑時表示,目前臉部辨識技術不是完美的,實際應用確實有問題,但僅是因為技術有可能被濫用,就禁止技術應用或批評、質疑技術本身,這是不合理的。相比其他美國科技公司對於政府合作業務的態度,亞馬遜顯得非常開放,Andy Jassy 對於政府採用新的技術表示並不擔心,相信後者會負責任的使用,亞馬遜將與任何遵守法律的政府機構展開合作,對於是否會與美國移民局、海關展開合作,他沒有透露更多細節。之前微軟和 Google 都面臨著與政府合作引發的質疑,長期以來微軟都是美國政府軟體系統的主要供應商,近日與美國軍方簽訂了 4.8 億美元的硬體產品採購合約,但在處理前沿技術合作方面就非常謹慎,先前加州執法部門要求微軟提供在出勤車輛上的辨識系統,微軟拒絕了這個合作,理由是擔心長期用白人圖像訓練的人工智慧辨識系統有可能在辨識少數族群時有誤差。Google 也建立與美國國防部的長期合作,因員工擔心人工智慧技術被應用於戰爭而進行大規模的罷工抗議,Google 不得不暫停部分合作,且不再尋求未來與國防部的合作。 Amazon embraces U.S. government business, despite occasional controversy (首圖來源:shutterstock)
交大教授郭峻因結合 AI 人工智慧與自駕車開發出「嵌入式 AI 物件辨識系統」,包括高效率的自動化標記,可偵測 200 公尺外車輛,還能預測後方車輛未來 3 秒內是否超車,目前已獲 28 家廠商合作。AI 時代來臨,自駕車更是 AI 人工智慧技術的重要應用領域,預估 2025 年全球自駕車相關產值上看 420 億美元。科技部上午舉行「自駕車智慧之眼深耕八年有成,嵌入式 AI 物件辨識系統技術領先國際」研究成果發表記者會。交通大學電子研究所教授郭峻因表示,團隊藉由分析影像實現自駕車進階駕駛輔助系統(ADAS),成功開發嵌入式電腦視覺深度學習技術,透過快速自動化標記工具,產生大量 AI 人工智慧學習的資料庫,搭配團隊開發的即時軟體演算法,降低了 AI 電腦視覺所需的運算平台成本,且無需昂貴的 GPU(繪圖處理器)運算平台。他說,AI 可替人類分析與辨識影像內的各式物件,但必須先有「工人智慧」,要有人去一一標記各種物件,建構足夠的資料庫。而郭峻因團隊開發出全世界第一套快速視訊資料自動化標記工具(ezLabel 2.0),用來標記並提供 AI 學習的資料,標記效率超過目前現有手動資料標記工具達 10~15 倍以上,並獲得於 AUDI 奧迪汽車主辦的第一屆台灣 AUDI Innovation Award 兩項大獎,國內已有多家廠商試用。郭峻因表示,團隊已經建置超過 1,500 萬筆適合台灣地區的自駕車影像資料庫,有助於開發適合台灣地區的 AI 自駕車物件辨識技術,今年預計要達到 3,000 萬筆資料。而台灣擁有國外相當缺乏的機車資料庫,他認為台灣要發展自駕車產業,掌握圖資是關鍵。郭峻因團隊開發出最遠可偵測超過 200 公尺外車輛的嵌入式深度學習演算法,超越現階段文獻標竿演算法(YOLO v2)4 倍,且準確度更高,適用於各種天候,非常適合自駕車應用。此外,團隊還首創深度學習行為預測技術,開發全球首見可預測後方車輛(汽車或機車)3 秒內是否超車,當作車輛駕駛第三隻眼睛,守護行車安全。郭峻因表示,團隊所產出的嵌入式 AI 自駕車快速資料標記工具、自駕車圖資、物件偵測與行為預測深度學習技術的產業應用潛力龐大,目前合作廠商已達 28 家,未來潛在的合作廠商包含 AI 晶片公司、車電系統公司與自駕車圖資公司等。他說,嵌入式 AI...
今年的 COMPUTEX CPX 論壇邀請了 ARM、Nvidia、Siemens 及 Micron 等知名廠商前來講述未來人工智慧的發展。ARM IP 產品事業群總裁 Rene Haas 在此次演講大膽的用超越摩爾定律為主題。眾所周知,在目前新興科技應用的興起,使得高性能晶片技術越受矚目,然而在半導體製程方面,卻開始看到了盡頭,這引發了業界的未雨綢繆。其中 ARM 做為處理器及相關外圍組件電路設計方案的知名研發商,採用 ARM 處理器架構的相關產品市占近 9 成,其對未來計算力發展的觀點相當值得關注。處理器種類已有許多,但目前 CPU 仍然是主導人工智慧發展的主要元件。不過人工智慧的應用仍有許多不同的情境,且所需的性能超乎想像,可以說目前的技術仍然處於普及這些想像的早期階段,例如自駕系統、邊緣運算、行動 AI 裝置等,都需要更高的計算力。然而眾所周知,光靠半導體製程可能會走向一個瓶頸,但這並非沒有其他路可走。目前有關 AI 的解決的方案大部分都是零碎的,但若能針對應用場景,結合不同的元件,將可以組成更高效的方案,例如整合 CPU、NPU 及 GPU 的晶片。全面運算(Total Computing)解決方案能以 CPU 為任務控制核心,再透過 System IP 確保 AI 運算的工作負載能達到最佳分配。ARM 也為此提出了 CoreLink Interconnect 規範,在保持一致性下,最大限度地提高了數據移動和儲存的效率,以最低的功耗和成本提供所需的性能。Rene Haas 表示,全面運算的時代即將到來。不僅如此,ARM 在軟體上也將提供研發人員更多的工具,如 Compute Library 及 Developments Solutions 等,以加速異質晶片整合,透過軟體生態以強化人工智慧的運算表現,所有的市場應用都將歸納於全面運算策略之下。值得一提的是,在硬體架構上,美光科技的運算與網路業務總經理 Thomas T. Eby 則指出,記憶體對 AI...
曾經打開披薩盒子卻發現哪裡出了問題嗎?為了確保客戶收到的披薩品質,跨國知名連鎖披薩外送業者達美樂(Domino’s)近日宣布推出全新的披薩檢查系統「DOM Pizza Checker」,未來出爐的披薩在遞給顧客前,都將透過 AI 掃描協助確認披薩品質符合預期。DOM Pizza Checker 是一種掃描系統,安裝在切割台上的天花板,能夠用來評估披薩的材料、比例及整體品質,目前已經在澳洲和紐西蘭展開使用,詳細可在下方影片中查看。據達美樂的介紹,員工只需要將披薩放在切割台上,DOM 便會拍下披薩的圖片,並將其與依正確步驟製作的同類型披薩圖片相比較,驗證其成分和整體品質符合標準;通過評估的披薩將送交至顧客手上,未通過檢查的披薩則需重新製作。達美樂計劃未來將讓 DOM Pizza Checker 系統能夠將拍下的圖片傳送給訂購的客戶,這也將使客戶能更好確認訂購的產品及其品質。DOM Pizza Checker 目前僅能運用於披薩上,目前還不清楚達美樂未來是否有打算更新該系統,將評估推廣至店家出售的其他類型餐點,也不確定 DOM Pizza Checker 是否有推廣至其他地區的可能,但如果應用受到當地好評,相信很快就能再聽到 DOM Pizza Checker 的消息。 Domino’s deploys DOM AI to check the quality of cooked pizzas (首圖來源:pixabay)
無人商店在過去一年引起市場轟動後又迅速退燒,不只消費者不買單,廠商導入意願也降低。從今年台北國際電腦展(COMPUTEX 2019)也能感受到智慧零售發展的趨勢變化,不再以臉部辨識和自助結帳技術為號召,而是強調更有效率的智慧服務與顧客體驗。少了溫度與人味,刷臉入店也是阻礙回顧過去一年,台灣 7-Eleven 無人商店 X-Store 實驗失敗,中國數以百計的無人商店也投資成灰,少了「人味」的無人商店不僅不符現代人的消費習慣、抓不住消費者的心,店內所採用的 AI 與大數據系統、攝影機、感測裝置等也因成本過高難回收,更別說自助結帳技術還未成熟,加上臉部辨識「刷臉」入店惹議,導致無人商店真的淪為「無人」,消費者上門興趣缺缺。▲ 7-Eleven 無人商店 X-Store(Source:《科技新報》攝)佳世達智能方案事業群產品中心處長鄭家樑觀察到,進入 X-Store 一店雙區的消費者,大多會選擇有店員服務的那一區,不只是因為無人化服務沒有溫度,光是進店要註冊人臉就已經很難讓消費者接受。「只是去便利商店消費為什麼要提供個資?他(店家)會怎樣運用、有什麼用途,光這樣想就有心理障礙」。不僅如此,進店之後結帳可能會造成的損失又是另一個問題,原因是自助結帳系統所採用的視覺影像辨識技術,在辨識商品物件上還不夠精準,而且物品一旦堆疊就無法辨識準確,另需要因應大量多元商品不斷建檔,耗時費力成本高,精準度也難以保證,但若採用 RFID 標籤辨識結帳也同樣有其限制。他提到有無人商店業者曾坦承,未歸回原位的商品也會造成辨識異常、來客數若超過一定人數也會無法準確辨識商品,要是商品沒辨識確實就出了門,後續也無法追究顧客的責任。在服務既沒有溫度又無法避免損失的情況下,無人化商店的商業模式很難發展下去。實體店若缺乏體驗,對消費者吸引力不足鄭家樑以近期幾大零售展的趨勢說明,全店無人化因缺乏體驗而影響消費者接受度,對廠商來說並不是他們想走的方向。目前較熱門的發展趨勢是各種情境整合體驗,例如智慧零售結合餐飲,因應人力短缺「省人」而不是無人,幫店員「省力」,省掉重複性高又繁瑣的環節,同時也兼顧消費者「體驗」。明基佳世達集團在今年展中集齊 10 家聯合艦隊夥伴,以「明基智慧魔術方塊」(BenQ Intelligent Qube)為主題,整合軟硬資源與技術,針對不同場域應用推出六大面向智慧解決方案,其中在智慧零售方面搭配了新一代送餐系統,強調在省人省力的同時,也不能省去人們注重的消費體驗。▲ 佳世達董事長暨總經理陳其宏,宣布聯合艦隊六大智慧解決方案(Source:《科技新報》攝)佳世達現場所展示的智慧零售體驗專區,概念主要結合智慧貨架、智慧販賣機,不僅提供顧客智慧試衣與購物體驗,也幫店家管理庫存、分析人流和客群喜好相關資料、播放廣告等。至於相鄰的智慧餐飲區,則是透過 AI 語音機器人訂位,到店後使用 KIOSK 自助點餐和行動支付付款,串連線上到線下(O2O)自助式服務;接著由廚房 KDS 資訊系統接單、再交給店員製作餐點,最後在 RFID 室內定位下以自動送餐軌道出餐。整體過程主要是將當中較繁複的作業改為自助式服務,但現場仍有配置人力,能在提升餐廳效率之餘,隨時為有需要的顧客提供服務。▲ 自助點餐 KIOSK 結合行動支付功能(Source:《科技新報》攝)▲ 廚房 KDS 資訊系統接單後,交由人員製餐(Source:《科技新報》攝)鄭家樑認為未來智慧零售會朝這樣的複合式營運方向發展,採用智慧販賣機也會是店家夜間營運人手不足時的解決方式,不一定非得經營全無人化商店。另外,智慧零售也將持續發展辨識技術,但並非個資敏感的人臉辨識,而是物件辨識技術,一旦技術成熟將有助於自助結帳或零售應用,在其他領域也會有不錯的發展潛力。(首圖來源:《科技新報》攝於 COMPUTEX 2019 明基佳世達展位)