星期一, 26 1 月, 2026

旅 TRIVEL

機器人如何學到在多樣且複雜的真實世界物體和環境中廣泛使用的技能?如果機器人設計用來在可控環境執行重複工作,那麼這工作相對來說應更簡單,如設計在管線組裝產品的機器人。但要是想設計成會觀察周圍環境,根據環境決定最佳行動,同時還能回應不可預知環境的機器人,那難度就等比級數的增長。目前,有兩個有力的工具能幫助機器人從試驗中學習技能,一是深度學習,一是強化學習。深度學習非常適合解決非架構化的真實世界場景,而強化學習能達成較長期的推理(longer-term reasoning),同時能在一系列決策時做出更好的決策。將這兩個工具結合,就可能讓機器人從自身經驗不斷學習,使機器人透過資料,而不是人工手動定義來掌握運動感知技能。為機器人設計強化學習演算法主要有幾個挑戰:首先真實世界物體通常有多樣視覺和物理特徵,接觸力(觸覺)的細微差異可能難以預測物體運動。同時機械臂可能會遮住視線導致難以透過視覺辨識預測物體運動。此外,機器人感測器本身充滿聲音雜訊,這也增加了演算法的複雜性。所有這些因素結合,讓設計學習通用解決方案的演算法變得異常困難,除非訓練資料夠豐富,有夠多不同種類的資料,但這使構建資料庫的時間成本變得很高。這些難點激勵著研究者探索能重複使用以往經驗的學習演算法,比如之前 Google 設計的抓取學習演算法,就能從大型資料庫獲益。但該工作有個問題,就是機器無法推斷行動的長期後果,而長期推理對學習如何抓取物體非常重要。比如,如果多物體聚在一起,先將一個分離出來(稱作「單一化」),在抓取時會更容易,但「單一化」步驟無法直接導致抓取成功,而是有較長期的成功率提升。▲「單一化」的例子。為了提高效率,使用離線策略強化學習(off-policy reinforcement learning)是必須的,即能從之前幾小時、幾天或幾週的資料學習。為了設計這種從之前互動獲得大量不同經驗的離線策略強化學習演算法,Google 研究人員將大規模分散式最佳化與一個新型擬合深度 Q 學習(new fitted deep Q-learning algorithm)演算法結合,名為 QT-Opt 。該論文目前可在 arXiv 檢視。QT-Opt 是一種分散式 Q 學習演算法,支援連續行動空間,非常適合機器人問題。為了使用 QT-Opt,研究人員首先使用之前收集的資料完全離線訓練一個模型。這個過程並不需要執行實際的機器人,這點使該演算法更容易分散式訓練。之後,將該模型部署到真正機器人進行 finetune,這個階段使用全新資料訓練。執行 QT-Opt 演算法時,同時也積累更多離線資料,使模型訓練得更好,也能得到更好的資料,這樣就形成正回饋迴圈。為了將此方法應用到機器人抓取工作,Google 研究人員使用 7 個真實的機器人,在 4 個月裡,執行了超過 800 個機器人小時。為了啟動資料收集過程,研究人員開始時手動設計一個抓取策略,大概有 15%~30% 機率能成功完成抓取工作。當演算法學到的模型效能比手動設計的策略更好時,就將機器人的抓取策略換成學到的模型。該策略使用相機拍攝影像,之後傳回機械手臂和抓取器應如何運動的資料。整個離線訓練資料含超過 1 千種不同物體的抓取資料。▲ 一些用來訓練抓取的物體。過去的研究表明,跨機器人的經驗分享能加速學習過程。研究人員將訓練和資料收集的過程延伸到十塊 GPU、七個機器人和許多 CPU,最終收集並處理了一個超過 58 萬次抓取嘗試的大型資料庫。最後,研究人員成功訓練了一個能在真實機器人執行的抓取策略,能泛用化到不同種類的物體抓取,即使這些物體沒有在訓練時遇到。▲ 七個正在採集資料的機器人。從定量角度分析,QT-Opt 方法在訓練集沒有遇過的物體 700 次抓取嘗試中,有 96% 成功率。與之前基於監督學習的抓取方法(成功率 78%)相比,該方法將錯誤率降低了 5 倍以上。值得注意的是,該抓取策略具標準機器人抓取系統不常見的各種封閉反應行為: 面對一組互鎖無法一起拾取的物體時,策略會在拾取之前將其中一塊與其他塊分開。 當抓住互相纏繞的雜亂物體時,策略會先探測不同的物體,直到手指牢牢握住其中一個,然後才抬起手臂。 機器人抓到一個物體後,如果人故意將物體拍打開來以擾亂機器人(訓練時沒有這種場景),它會自動重新定位夾具,並進行另一次嘗試。 最重要的是,這些行為都不是手動設計的,都是透過 QT-Opt 自監督訓練而自動學習到的,因為這些行為能從長期角度提高模型抓取的成功率。 此外,研究人員還發現 QT-Opt 使用較少資料就達到更高成功率,儘管可能需要更長時間才能收斂。這點對機器人來說尤其令人興奮,因為訓練的瓶頸通常是如何收集到眾多真實的機器人資料,而不是訓練時間。將該方法與其他提高資料效率的技術相結合,可能會對機器人技術開闢一些新的有趣方向。Google 研究人員也正將 QT-Opt 與最近學習如何自我校準(self-calibra)工作結合,想進一步提高模型的泛用化能力。總體而言,QT-Opt 演算法是一種通用的強化學習方法,可為真實世界的機器人提供良好的效能。除了獎勵函數定義,QT-Opt 任何內容都沒有針對機器人抓取做任何設計。這是邁向更通用的機器人學習演算法的重要一步,也更期待演算法能應用到其他任何機器人工作。...
在工業 4.0 的浪潮下,以機器人取代傳統人力的智慧製造已逐漸在產業發酵,根據 TrendForce 旗下拓墣產業研究院預估,全球智慧製造產值將在 2020 年達到 3,200 億元。今日 TrendForce 攜手拓墣產業研究院、意法半導體、IBM 及安川電機舉行的「AI 智動化研討會」,就從製造、運送到零售等重要環節切入,剖析智慧製造的新應用與趨勢,以及將為台灣帶來的商機與挑戰。拓墣產業研究院分析師劉耕睿從工業 4.0 帶動的智慧製造與工業物聯網熱潮切入,分析企業利用設備連網、資料擷取踏入數位轉型的第一步,再透過智慧平台串連各層面數據,並利用人工智慧與各式演算法讓數據在現實應用中能夠發揮最佳效用。劉耕睿也提到,近年崛起的邊緣運算以數據為核心建立智慧架構,並結合各式新興載具落地於實際場域,以協同工廠作為目標,強化了製造流程的穩定與效率。而就關鍵零組件端來看,微控制器扮演工業自動化控制的核心,意法半導體亞太區技術行銷專案經理余玟宏表示,升級工業 4.0 的關鍵就在於如何善用人工智慧的概念,並且同時提升自動化控制。特別是在人工智慧領域中,意法半導體做為嵌入式處理解决方案的供應商,也致力於開發兼具靈活與可擴充的產品技術,目標協助各種設備的升級。此外,IBM 則從智慧物流的角度出發,探討運送、倉儲、配送的智慧化與區塊鏈應用,除了從技術特性的角度進行區塊鏈剖析外,也探區塊鏈在台灣的發展機會;安川電機則鎖定於介紹製造業的進化及機器人的發展和技術。(首圖來源:shutterstock)
隨著 Google、科技公司相繼進駐,加拿大多倫多已成為 AI 重鎮,為了在激烈競爭的 AI 領域保持競爭力,南韓電子大廠 LG 1 日也宣布將在多倫多建立下一個人工智慧(AI)實驗室,這座實驗室將會是 LG 在矽谷 AI 設施的延伸,透過對 AI 領域研究的持續投入,LG 希望能在未來幾年內協助為消費者及企業定義 AI 的未來。據了解,LG 在南韓、印度、矽谷和俄羅斯都設有 AI 實驗室,而這次除了在加拿大再度設立實驗室,LG 也正和在深度學習研究領域非常知名的多倫多大學建立為期 5 年的合作研究計畫。LG 總裁兼首席技術長 Il-pyung Park 表示,現在在 AI 連接裝置上的早期投入,正在替智慧城市、智慧家電、智慧商業與智慧設備奠定基礎,這些正是人們所夢寐以求的未來,而加拿大新實驗室的設立與多倫多大學的合作,將會對未來技術開發達到關鍵作用。多倫多大學校長 Meric Gertler 表示,他們一直非常期待與創新的全球性公司合作,推動 AI 發展的界線,而與 LG 的合作正可以達成這個目標。過去在CNET 的採訪中,Park 曾表示 LG 並非只將 AI 看作是「銷售策略」,而是更為專注在實際應用中,「你可以把 AI 掛在嘴上一整天,但如果客戶沒有從中獲得任何價值,這一切就變得毫無意義。」 LG to open next AI research lab in Canada LG...
繪圖晶片大廠輝達(NVIDIA)於 2 日宣布,與儲存設備大廠 NetApp 共同推出以 NVIDIA DGX 超級運算系統,以及 NetApp 的 AFF A800 雲端全快閃儲存設備為核心技術的 ONTAP AI 解決方案,用以協助企業透過運算、儲存與連網等技術,針對其營運模式建置可擴充的深度學習系統。NVIDIA 指出,新推出的 ONTAP AI 解決方案是以企業實現願景為目標,協助不同規模的企業提供能輕易部署,並且具備擴充性的模組化建置方案,將深度學習技術全面導入基礎設施上。此外,其部署時間也從過去的長達數個月,大幅縮短至僅僅數天時間就可以完成。此外,NVIDIA 與 NetApp 攜手將最寶貴的設計經驗與最佳策略,淬煉成可重複實行的方式,指引用戶針對 AI 與深度學習部署最佳化的架構。其不僅讓用戶在設計基礎設施時不必再憑空揣測,還能進一步提供涵蓋 GPU 運算、儲存以及連網方面的最佳化組態。NVIDIA 進一步表示,將 ONTAP AI 解決方案整合在一起的連結系統是 NetApp 的 Data Fabric,這是一種 SaaS 和企業內部部署的解決方案,可統一雲端運算中的數據來源,特別是來自雲端資料中心的數據,包括來自服務提供商的公共雲以及混合雲的資料,使資料無論是什麼樣的格式或位置,都能快速讀寫。 另外,Ontap AI 的核心是 NVIDIA 的 DGX-1 超級運算系統。這是一款專為深度學習而優化的 AI 超級運算系統。DGX-1 採用NVIDIA NVLink 混合立方體網格的作業方式,可配置高達 256B 的 GPU RAM...
對於汽車廠商而言,開發自動駕駛技術可說是不能避免的發展,因此都各自有不同的發展計畫,而 Tesla 除了開發自動駕駛技術,更在開發人工智慧運算晶片,減少對第三方廠商的依賴。最近 Tesla 總裁伊隆·馬斯克(Elon Musk)在第二季的財政報告中表示,Tesla 的自動駕駛運算晶片開發經過 3 年的時間終於成熟。這個計畫在去年 12 月首次公開,負責的主管為 2016 年加入的 Pete Bannon。Bannon 透露,目前 Tesla 的自動導航硬體已經進入第三階段。Bannon 指出,開發中的晶片已經投放到 Model S、X 和 3 之中做實地路面測試,系統完全支援現有汽車系統,也有額外的效能提升空間。Tesla 之前曾經考慮過不同方案,包括採用 Nvidia 的現成產品,也曾與 Arm 方面商討過,不過最後決定從頭開始開發。Elon Musk 指 Tesla 將會擴充其晶片開發團隊,並盡快投資更多資源發展這技術。其成本與現有採用 Nvidia 產品的系統相近,不過將會有更高的運算效能。 Elon Musk says Tesla A.I. chip project is ‘finally coming to fruition’ (本文由 Unwire Pro 授權轉載;首圖來源:shutterstock)延伸閱讀: 馬斯克親口承認特斯拉自研 AI 晶片,要掌控自動駕駛的絕對主動權
機器學習領域發展最快的一環,深度學習(Deep learning)為我們帶來許多技術進步,不論圖像分析、語音辨識或語言翻譯都有成功應用,但許多人都相信深度學習的潛力不僅於此。加州大學洛杉磯分校(UCLA)的研究團隊近日便介紹一種從物理機制改變深度學習的特殊概念,未來或有望讓相關應用更進一步發展。由 UCLA 電腦工程教授 Aydogan Ozcan 帶領的團隊捨棄了傳統使用的電腦設備,反而選擇運用全光學物理機制來建立神經網路架構,這個概念團隊稱為「全光學繞射深度神經網路」(all-optical Diffractive Deep Neural Network, D2NN)。以現今情況來說,由於深度學習是在電腦運行的系統,不論圖像識別或文字辨識,應用的設備都必須配合鏡頭或光學感測器來辨識物體,為了讓電腦理解,這些看見的內容還得整理成數據給電腦讀取,接著系統還得透過數據表示方法及抽象化(Abstraction)搞懂內容後才能執行任務。相較之下,運用全光學的 D2NN 不需要額外的高級電腦程式來處理目標圖像,或是判斷光學感測器捕捉到的內容究竟是什麼,而也因只需仰賴光學繞射運作,D2NN 並不需要任何額外耗能便可執行任務。從外觀看起來,D2NN 是由數個 8 平方公分大小的晶圓組成,每個運用 3D 列印製作的半透明晶圓上都有數萬個凸起像素,透過每個晶圓複雜的像素組合將光線偏折,D2NN 能執行圖像分析、特徵檢測和對象分類等應用──當然,是以貨真價實的「光速」在執行任務。如果用領導研究的 Ozcan 教授的話來解釋,D2NN 就是「逐層製造的被動元件透過光學繞射互相連結,創造出獨特全光學平台,能夠運用光速執行機器學習任務。」透過使用兆赫茲頻率的光源實際測試 3D 列印出的設計,團隊在手寫數字、時尚產品的圖像分類證實了這套系統的可行性,團隊相信 D2NN 未來有望協助開發出全新應用概念的相機,以及可學習特定任務的光學元件。由於 D2NN 的組件都可用 3D 列印生產,未來晶圓大小與層數都還能再往上提升,而這些更大的系統也可用來處理更複雜的數據及圖像分析,同時成本還非常便宜──根據 UCLA 報導指出,研究團隊創造的 D2NN 設備只需不到 50 美元就能複製。雖然以目前來說,D2NN 還只是一種概念證明,但這確實替機器學習未來的應用開創了獨特機會,研究論文已經刊登在《科學》(Science)期刊。 3D-printed artificial intelligence running at the speed of light—from object classification to optical component design 3D-printed Deep...
人們常說眼睛是靈魂之窗,從一個人的眼睛似乎能看出很多訊息。最近一項研究指出, AI 也能從人類的眼睛解讀其人格特質。人類可以看出對方眼睛的訊息,那 AI 也行嗎?曾有研究指出,從一個人眼球的運動方式就能透露出這人當下的情緒或思考方式。所以當人和人互動時,就能透過看著對方的眼睛有意識或無意識地感受到對方的想法。如果今天,坐在我們對面的不是真人而是人工智慧(AI),AI 也能讀出人類眼球運動軌跡隱藏的訊息嗎?最近,一項研究指出,AI 可利用人類眼球的運動軌跡,辨別出特定幾種人格特質。從眼睛分析五大人格特質  AI 可以看出 4 種心理學有所謂的「五大人格特質」(Big Five),分別為外向性(Extraversion)、親和性(Agreeableness)、盡責性(Conscientiousness)、情緒不穩定性(Neuroticism)和經驗開放性(openness to experience)等 5 種。研究發現,AI 可有效辨別出前面 4 種,但「經驗開放性」對 AI 來說還很難成功判定。▲ 通常,好奇心強的人會很常留意周遭事物,只要知道這些小技巧,或許 AI 也能從人類的眼球運動特徵,解讀人類的個性。(Source:Unsplash)從眼神看出一個人的個性通常,好奇心較強的人會比較常環顧四周,比較能接受新思維、心胸寬大的人可盯著抽象圖像看比較久,責任感強的人瞳孔大小變化比較明顯,情緒不穩定、有點神經質的人眨眼速度較快,經驗開放性較高的人更常將眼神從某一邊轉到另一邊,而比較樂觀的人比起悲觀的人,會花比較少的時間觀看負面事物。找 50 名受試者來實驗為了要確認 AI 有沒有辦法從人類的眼球運動軌跡看出一個人的人格特質,研究團隊的南澳大學神經心理學家勒切爾(Tobias Loetscher)找來 50 名(42 名女性和 8 名男性)受試者實驗。寫完量表之後外出買東西所有受試者要先完成五大人格特質量表,確認每位受試者的人格特質分布。接著,研究人員讓所有受試者戴上可追蹤眼球運動軌跡的裝置(SensoMotoric Instruments),請他們走出實驗室在校園內買點東西,整個過程大約 10 分鐘,沿途都有攝影機記錄受試者的動作。▲ 研究團隊認為,這次的研究驗證了從人類眼球運動的特徵,就可預測一個人的人格特質。(Source:Unsplash)東西買完再找 AI 算算看最後,受試者買完東西之後,研究團隊再派出 AI 分析受試者的眼球運動軌跡數據。結果發現,AI 真的能從人類的眼球運動方式,推測出當事人的人格特質傾向。只有外向性和經驗開放性不太準以情緒不穩定性來說,AI 的準確率為 43%、外向性的準確率為 48.6%、親和性的準確率是 45.9%,但外向性(30.8%)和經驗開放性(27.2%)的準確度相對來說比較低。眼球運動特徵  可以用來預測人格特質研究團隊的勒切爾說:「由於我們的機器學習(machine learning)方法,我們不只驗證了日常生活中眼球運動扮演的角色,我們也展示了眼球運動特徵可用來預測人格特質。」其實,先前也有類似研究,且該研究也得到幾乎相同的結果,但這次實驗是第一次讓受試者走出實驗室進行資料收集。▲ 研究團隊認為,如果機器人或電腦能解讀人類在語言表達之外的訊息,就能改善人類和機器的互動方式。(Source:Unsplash)讀出語言之外的訊息研究團隊們認為,這次的研究如果能再進一步改進、提升 AI 判讀人類個性或行為的成功率,如此一來機器就能有相對回應,進而改善人類和機器間的互動方式。勒切爾說:「今天的機器人或電腦並不具社會意識,所以它們沒有辦法解讀語言之外的訊息。這項研究為機器人或電腦開發提供了一些機會,讓它們能更自然、更理解人類的社交訊號(social signals)。」眼球軌跡追蹤技術的隱私問題然而,這項研究也引來一些人對隱私的憂慮。舉例來說,現在有不少機場的自動通關系統就是掃描眼睛,Facebook 等科技公司也有相關眼球追蹤技術,此技術已越來越融入現代人的生活。墨爾本大學的神經科學家卡蒂爾(Olivia Carter)便指出,如果未來...
AI 人工智慧新創公司沛星互動科技(Appier),7 日宣布收購印度新創公司 QGraph,並正式在全亞洲推出「AIQUA 人工智慧行銷自動化平台」,協助企業掌握消費者隱性需求,進一步改善個人化行銷難點。Appier 引述市調機構 eMarketer 調查指出,全球企業高層決策者普遍認為「個人化行銷」是提升用戶留存率的重要關鍵。不過,一般企業所擁有的用戶行為資料,大多僅源自企業自家網站或自家開發的行動應用程式,無法全盤掌握用戶在其他網站所留下的數位足跡及隱性需求,加上使用行為不斷在不同裝置間移轉,也為企業行銷增添更多不確定性與挑戰。「在與客戶溝通的過程中,我們發現個人化行銷是許多企業與消費者溝通時所面臨的一大挑戰,」Appier 執行長暨共同創辦人游直翰表示,Appier 自成立以來便站在 AI 發展前端,持續透過產品創新,協助企業在 AI 浪潮中轉型,因此期望藉由 AIQUA 解決企業長久以來的行銷困境。AIQUA 為雲端自助式行銷自動化平台,讓企業運用 AI 技術整合與了解用戶在企業網站、網頁、App 和各裝置上的使用行為,進而客製高度個人化行銷訊息,並在適當時機透過網頁、應用程式推播通知、手機簡訊、email 或通訊軟體等管道推送給用戶,加深企業品牌與用戶間的互動、提高用戶留存率。Appier 為落實願景,以 AI 為基礎打造「AI 行銷三部曲」,協助各行各業加速數位轉型與商業自動化,當中除了最新推出的 AIQUA 人工智慧行銷自動化平台,還包括拓展企業新客源的「CrossX 程式化購買平台」,以及提升顧客終身價值與忠誠度的「Aixon 人工智慧商業決策平台」,讓企業能由淺入深依需求與消費者溝通,擴大行銷綜效。(首圖來源:Appier。圖片左起:QGraph 共同創辦人 Sachin Bansal、Appier 執行長暨共同創辦人游直翰、QGraph 共同創辦人 Vivek Pandey)延伸閱讀: Appier 延攬亞洲頂尖專家,加速 AI 規模化布局 Appier Aixon 人工智慧商業決策平台與 LINE 整合,用 AI 洞察力為企業帶來加乘行銷綜效 用 AI 翻轉新「企」機,Appier 公布最新《台灣消費者跨螢行為洞察》年度報告 Appier 獲選 CB Insights...
據消息,美國國立衛生研究院(NIH)最近發表一個龐大的胸部 X 光資料庫,現在已公開近 10,600 張電腦斷層掃描(Computed Tomography,簡稱 CT)圖像,以支援醫療人工智慧演算法的開發和測試。這個大型成像資料庫稱為 DeepLesion,是由美國國立衛生研究院的 Ronald Summers 及同事創建。他們標記了機構放射科醫生臨床相關的 CT 掃描結果。Summers 是 NIH 影像生物標記和電腦輔助診斷實驗室的高級研究員和放射學家。根據美國國立衛生研究院的說法,這些標記通常很複雜,包括描述病變大小和位置的箭頭、線條、分割和文本,以便讓臨床醫生監測疾病變化。標記醫學圖像需要廣泛的臨床經驗,且耗費大量時間。實際上,缺乏可用於訓練 AI 演算法的大型醫學圖像資料庫,一直被認為是 AI 技術尋求突破的主要障礙。Summers 及同事的努力就是為了改變這種狀況,至少在 X 光方面。去年他們發表了 ChestX-ray8 資料庫,包含 10 萬張 X 光圖像。DeepLesion 透過夠強大的 CT 掃描資料庫和附帶標記來訓練深度神經網路,進而幫助繞過這些障礙。美國國立衛生研究院建議,有朝一日可以「使科學界創建具統一框架的大規模通用病變檢測器」。據了解,資料庫包括來自馬里蘭州貝塞斯達 NIH 臨床中心 4,400 多名患者的大約 10,600 項研究。雖然目前大多數資料庫包含 10 至數百個單一類型的病變,但該組設計的 DeepLesion 可容納超過 32,000 個病灶,涵蓋各種放射學發現,如肺結節、淋巴結腫大和肝腫瘤。有了多範疇的病變資料庫,DeepLesion 為研究人員提供了開發人工智慧演算法的機會,能自動檢測和診斷多種病變類型。美國國立衛生研究院指出,未來還可能發展成一個通用病變檢測器,可用作初始篩選工具,並將結果發送到其他更專業的演算法。此外,研究人員可能可在同一次 CT 掃描中研究不同類型病變之間的關係,進而全面評估癌症負擔。為了開始展示這種潛力,Summers 及同事用 DeepLesion 資料庫訓練一個典型的通用病變檢測器,以發現各種病變。他們的探測器靈敏度達到 81.1%,每個圖像有 5 個假陽性。據了解,研究人員計劃繼續向 DeepLesion 添加圖像,以提高檢測器的準確性,他們希望將...
語音購物被視為未來生活的象徵之一,試想只要說一句話就能讓想要的東西幾天甚至幾小時內送到家,聽起來就很方便。語音購物帶來的龐大商機不容小覷,因此也成為 Amazon 和 Google 這些科技巨頭的兵家必爭之地。但實際上真的有這麼簡單嗎?雖然語音購物在技術上已經可行,但根據科技媒體《The Information》的報告顯示,擁有 Amazon Alexa 的消費者只有 2% 會用來買東西。而且曾使用購物功能的人高達 90% 只用過這一次,後來就沒再用了。大概有 20% 的人會讓語音助理追蹤想買的東西或搜尋優惠,但很少人會真的用來直接購買,而是會選擇用別的設備來買東西。「語音購物尚未進入成為大眾市場產品的階段」,《The Information》的消息來源表示。到目前為止,配備 Alexa 這種語音助理的裝置還是視為新奇的玩具,用戶通常只拿來問簡單的問題、聽天氣預報、設定鬧鐘和播放音樂。不過擁有配備 Alexa 功能裝置的用戶,就很可能是 Amazon 的愛用者。2017 年一項調查顯示,美國有 Alexa 裝置的消費者平均每年在 Amazon 消費 1,700 美元,而 Amazon Prime 會員平均每年消費 1,300 美元,非 Amazon Prime 會員的客戶平均每年只消費 1,000 美元。未來 Amazon 要怎麼打破在智慧音箱市場稱霸,卻沒人想用它購物的僵局,還有待進一步觀察。 The Reality Behind Voice Shopping Hype Alexa isn’t the shopping behemoth Amazon hoped it...