星期五, 23 1 月, 2026

旅 TRIVEL

身為一家在全球影響力頗大的科技公司,蘋果的魅力不只是推出的各類產品,更在環保事業的貢獻。蘋果首款智慧喇叭 HomePod 剛宣布在美國、英國以及澳洲開啟預購後,就開始關心這款新產品對環境的影響。HomePod 環境報告近日,蘋果官方發表一份關於 HomePod 的環境報告,詳細說明對環境的影響,包括氣候變化、能源效率、物料效率和限制性物質等。這份報告的左側,列出蘋果為了降低 HomePod 影響環境採取的措施,例如: 無溴化阻燃劑 無聚氯乙烯(PVC) 無鈹 100% 的包裝纖維來自其負責管理的森林或再生紙 HomePod 效能:聽歌比一顆 LED 燈泡還省電HomePod 的設計,頂部有一塊 272×340 解析度的 LED 螢幕,內部有 7 個揚聲器陣列,配備 A8 晶片,且有 6 個麥克風陣列全向接受語音指令。據蘋果介紹,設計之初,HomePod 以上這些元件都優先選擇低功耗套件,蘋果還專門設計低功耗軟體,以便讓 HomePod 實現更優質的能源效率。正因為這樣,HomePod 的能效表現要優於美國能源之星在音訊/影音版本 3.0 方面的環保評級。低功耗的待機型態下,HomePod 在 100V、115V 以及 230V 等電壓下的功耗大約在 1.71W~1.76W 之間。播放音樂時(用 iTunes 以 50% 的音量播放音樂),HomePod 的功耗也處於 8.69W~9.25W 之間。3 種電壓下的電源效率分別為 89.9%(100V)、90.0%(115V)、89.7%(230V)。蘋果宣稱,HomePod 播放音樂時,功耗比普通家用 LED 燈泡更低。這個參考物件,是經過能源之星認證的 A19 LED 燈泡,平均功耗為 9W~10W。也就是說,用 HomePod 聽歌並沒有那麼耗電。HomePod...
在 2017 年下旬 Google 產品發表會首度亮相的 Google Clips,上週末悄悄地在美國 Google Store 展開預購、隨即搶購一空。這款相機結合人工智慧,能夠辨識出完美的表情、光線以及構圖,自動捕捉美麗自然的影像,並經由機器學習提高拍攝技術。Google Clips 自動捕捉珍貴畫面,錄製 Motion Photo外觀輕巧的 Google Clips 可用背夾隨身攜帶,隨時隨地拍照或錄影。除了直接按下鏡頭下方的快門鍵拍攝,它更透過機器學習(Machine Learning)技術辨識人臉、自動捕捉珍貴畫面,錄製成數段 1-3 秒、沒有聲音的 Motion Photo,效果類似蘋果的 Live Photo。Google Clips 不與任何 Google 的雲端服務共享數據,這些影像只加密儲存在相機上,用戶需使用特定 App 瀏覽,可透過 Wi-Fi 傳送到智慧型手機再分享至社群平台。此外,它具有鏡頭偵測功能,當鏡頭被擋住會透過手機通知提醒用戶。Google Clips 建議售價為 249 美元(約台幣 7,300 元),但在 Google Store 卻已搶購一空,海外消費者只能等待電子郵件通知,而已經下單成功者預計可在 2 月 27 日至 3 月 5 日之間拿到商品。以人為本的設計初衷,Google 聘請專業攝影師協助開發既然 Google Clips 結合 AI(Artificial Intelligence,人工智慧)技術隨時捕捉畫面,為了內建軟體能夠識別出拍得好或拍得不好的照片,必須要有大量的影像數據做基礎。由...
1 月 28 日,阿里巴巴技術委員會主席王堅在《麻省理工科技評論》和 Deeptech 深科技共同舉辦的新興科技峰會 EmTech China 上發表演講。在 2017 年的雲棲大會上,城市大腦 1.0 正式發布,王堅當時交出了用智慧治理城市的周年答卷:接管杭州 128 個訊號燈路口,試點區域通行時間減少 15.3%,高架道路出遊時間節省 4.6 分鐘。在主城區,城市大腦日均事件報警 500 次以上,準確率達 92%;在蕭山,120  救護車到達現場時間縮短一半。城市大腦 2.0 版本雖然還在研發當中,但王堅表達了城市大腦下一階段的目標:讓世界上每個城市都取消車輛的限行。他認為現在的道路資源是足夠的,但沒有進行優化,他們要讓所有的道路發揮到最高的效率。「這個世界本來是不需要修那麼多路的,我們現在不得不這麼做,是因為資源的利用效率不高。」他說,不應該像波士頓一樣把道路修到地下。今天的中國,每個城市大約要拿出 20%-25% 的土地來修路,但他相信,經過城市大腦的努力,可以幫助城市省下 5% 的土地資源,這將為社會提供一筆巨大的財富,也會開啟巨大的市場。當然,治理交通壅堵只是城市大腦的第一步,做為城市重要的基礎設施,阿里未來還可能會讓它在城市治理、城市安全、醫療健康等社會全領域發揮基礎性作用。以下為王堅演講內容實錄:我認為今天最大的智慧硬體,就是我們所熟知的城市,它可能是人類有史以來發明的最大的智慧硬體。過去兩年我有幸參與了一項工作──城市大腦,可以把如此龐大的硬體變得智慧。今天會議主題是雲端上的 AI 風暴,而我認為更好的說法,可能不是 AI,而是 Internet 和 Cloud,或者說應是智慧雲計算。現在我們生活在城市中,每天面臨著諸多的不便與各種各樣的問題,比如交通問題,為了解決這些問題,人類曾付出了很多的代價,舉個例子,「波士頓大挖掘」為了城市的美觀,花了幾十億美元把幾條高速公路從地上轉移到地下。為什麼說如果一個事物擁有了一個人的智慧是很重要的事情,那是因為人知道如何把各種資源綜合利用,比如在合適的時間進行說話、寫字,知道如何將最小的能量與精力去換取所需要的東西。回到今天的對象──城市來說,我們的城市還是一個四肢發達、頭腦簡單的存在,是一個「無腦城市」,它需要一個大腦去幫助它更好的運作。如今可以有機會進行「城市大腦」的研究,得益於網際網路等基礎設施的飛速發展,這樣我們可以有足夠的數據資源去重新思考如何去構建我們的城市。目前全世界的城市共同面臨的最大的問題是交通問題,這個問題在過去並沒有得到很好的解決,而現在網際網路、大數據的發展給我們提供了可以解決的機會。先來看在目前已有資源存在的情況下依然還沒有解決的問題: 雖然訊息系統、智慧系統發達,但還不能準確描述城市的某一時刻某一路段上會有多少車。 城市的規劃管理者(如市長)也還不能準確知道每位市民每天的出遊計畫。 這兩個問題是最基本的,但如果得不到解決,城市交通的優化(使得市民出遊更加順暢)就可能無從下手。所以目前面臨的最大的問題,就是解決問題的需求與目前所獲得的資源是並沒有完全匹配。這就需要一個新的機制可以像大腦一樣來完成這件事情。我們在杭州進行試點,進行一個機制的切入,所調動的資源包括城市的空間資源──道路資源,城市的時間資源──紅綠燈資源。這兩種資源在過去沒有得到很好的利用,如今有了網際網路與大數據的技術,就要把它們優化和利用起來,以此進行對城市交通的優化。當我們拿到這些資源後,發現大家也忽視了一件事情,那就是我們今天對時間的調配效率是遠遠低於大家的想像的,任何的城市都會有這樣的情況,一個很重要的原因,那就是今天的交通模型並不能真實反映城市的交通情況的,現在,遍布中國城市的密密麻麻的攝影機也給了我們得以了解城市每天所發生的事情的機會。城市的數據資源、現代的網際網路和大數據技術可以讓我們來優化所有公共資源的使用,交通是一個非常突出的例子。杭州的實驗發現了 3 個有意思的事情: 第一次真正的可以準確的知道在城市的某一時刻某一路段上有多少輛車。這個發現可以用於城市車輛限行的製度的優化,目前的限行制度是存在頗多問題的,比如限行之後,城市發生了什麼?是否真的解決了交通壅堵?比如杭州城區有 120 萬輛車,單雙號限行後,還有 120 萬輛車,那 60 萬輛車又是從哪跑出來的?這是今天交通碰到的一個非常大的問題,應該保證每一輛車都有它所匹配的足夠資源。 當道路資源(車輛數目)是確定的情況下,唯一可以優化的就是時間資源,也就是紅綠燈的配置。所以在杭州的第二個事情就是根據攝影鏡頭看到的交通情況,來動態地調整紅綠燈配置,也就是動態地來調整交通的時間資源。在一條貫穿杭州整個南北的高架的試點上,我們達到了可以讓車在這條高架上平均使用的時間降低 5 分鐘,這是一個非常大的數字。在地面的路上,平均的車速可以提高 15%-20%。以前是通過把路修寬來提高車速,現在靠的是過去大家見不到的東西──數據,也可以提高車速。 當整個城市的各項活動可以用一個大腦來協調的時候,會帶來很多意想不到的結果。在任何國家和任何城市,都有特種車輛,如警察的車、救護車等,這些車在道路上有特權,過去這個特權是靠闖紅燈得來的,這有很多的問題,比如它會帶來次生事故。 在杭州的試點,我們發現,當把這些車輛與一個城市的大腦的調度協調相結合、配合的時候,結果驚人:救護車可以在不闖紅燈的前提下,從到達它要救護地點的時間縮短了 50%,從過去的 15 分鐘左右降到現在的...
說到遊戲與 AI 的關聯,許多人想到的都會是遊戲中非玩家角色(NPC)的動作或對話應對,但 BGR 報導介紹的一款簡單的勇者遊戲,AI 系統的工作卻並非如此。這款遊戲是由英國法爾茅斯大學(Falmouth University)AI 資深研究員 Mike Cook 設計,嚴格來說,Mike 並沒有完成這款遊戲,他只是將簡單的概念傳達給 AI 系統,並由其接手進行開發遊戲的工作。這個系統稱為「ANGELINA」,在 Mike 對其提供初步的設計概念後,ANGELINA 便會接過概念進而延伸設計出遊戲,以這次的例子來說,Mike 提供給 ANGELINA 的初步概念非常簡單:玩家必須指揮在地下城的一位冒險者,殺死骷髏到達出口。接過這個初步概念後,ANGELINA 在設計中巧妙些微調整了 Mike 的想法,讓遊戲內容變得更有趣。比起傳統讓玩家控制一位冒險者,並將目標設定為殺死骷髏到達出口,ANGELINA 選擇將遊戲設計為玩家必須同時操作多位冒險者,且在多數情況中,必須選擇犧牲其中一些人才能離開,Mike 認為這是非常聰明的關卡設計,他將其稱為「在冒險之前」(Before Venturing Forth)。Mike 造出 ANGELINA 已有一段時間,提供初步概念後,Mike 便會看著它打造遊戲:有些很有趣,有些糟得很可笑,更多的是介於這兩者之間。只是 ANGELINA 設計遊戲的工作究竟怎麼進行的?▲ ANGELINA 早期設計的遊戲。 (Source:gamesbyangelina 截圖)Mike 解釋,ANGELINA 最主要的技術是計算演化(computational evolution),當它在設計遊戲某個關卡時,會先隨機製造出一大堆關卡,接著測試且完成所有內容,儘管其中多數都非常糟糕,但仍有一兩個相較其他好上那麼一些。接著 ANGELINA 便會選擇較好關卡的優點,並將其混合在一起製造出一個全新關卡,然後再次啟動這個循環:測試、挑選、混合內容。Mike 將設計遊戲的過程分解成不同的幾個任務,像是設計關卡、發明規則、測試難度等,而 ANGELINA 會根據現在遊戲缺乏的內容選擇任務,運用包含計算演化在內各項技術來完善每個層面。目前 ANGELINA 仍需要依靠 Mike 的意見來做一些事情,像是提醒它「需要花較長時間解決的關卡必定更好」,但 Mike 期望未來能將 ANGELINA 變得更獨立,這樣它才能拋棄這些舊有觀念,從全新不同的角度讓遊戲變得更有趣。截至目前為止,ANGELINA 已生產出約 30 款遊戲,其中多數都已被刪除,因為並不具備成為遊戲系統的全面能力,Mike...
本期介紹的論文是《Deep Scattering: Rendering Atmospheric Clouds with Radiance-Predicting Neural Networks》(深度散射:輻射預測神經網路成像繪製大氣雲)。這是一篇由迪士尼公司獨立發表的論文,教你訓練一個神經網路,透過模擬光線過程來繪製雲層。這項技術的難點在於,必須運行一個叫做幾何體光線路徑追蹤的演算法。這是一種用來模擬光線輻射的技術。因為在很多光線散射過程當中,光輻射並不是直接被物體表面反射,而是穿透了物體(比如這裡的雲層)。所以,要想建立雲層物理外觀模型,關鍵是要準確地獲取雲層幾何體。前提是,迪士尼必須模擬出可能出現的數百次散射過程(包括其中的百萬級光線路線)。但這個計算量太龐大了。在這篇論文裡,作者們提出了一個很好的混合方法:用神經網路快速學習、快速預測在散射過程中的光輻射,以節省一部分的計算量。另一部分仍然使用傳統演算法。雲層成像過程中,訓練神經網路所用的數據包含了 75 個不同的雲層。其中一部分是電腦自動生成的,另外一部分則是由藝術家繪製的,可以讓神經網路學習到多種多樣的案例。最終效果驚人,圖片的成像時間被壓縮到了分秒級。要知道,如果用傳統方法來做這類渲染,即使放到計算能力超強的平台也非常耗時。迪士尼也不需要再多等幾小時,來看調整之後結果是不是比之前的運算成果要好。因為散射的參數也可動態調整,非常短的時間內就可以完成了。這項技術同樣支援不同的散射模型。所有的成像結果都需要和真實進行對比,可以看到它們大多數看起來和真實的沒什麼兩樣。註 1:這篇文章的新意是對神經網路在新穎工程方面的應用,針對的是在傳統雲層成像當中 in-scattered radiance prediction 這個在實際使用當中的痛點。註 2:這個神經網路的基本結構是在普通的多層感知機上使用 ReLU 做激活函數,其創新在於構造了一種特殊的layer 來模擬雲層當中光線散射的特性。註 3:這種特殊的 layer 是一個二層結構,其中輸入層相當於雲層的幾何矩形圖形,然後第二層相當於內部光線散射的範圍,整個 layer 相當於模擬了一次光線在雲層內部的散射,工作機理有些類似 CNN 內部的 filter。(本文由 雷鋒網 授權轉載;首圖來源:pixabay)
統一超商 29 日宣布在總部大樓開出無人店「X-STORE」,全程透過人臉辨識進店、採買、結帳;全家也表示,第一季將開出第一波科技概念店,利用 AI 自動製作咖啡減低店員工作量。統一超商 7-ELEVEN 表示,29 日正式啟動「X-STORE」內部測試計畫,也是在全球 7-ELEVEN 市場中,繼南韓之後,緊接著台灣 7-ELEVEN 也推出無人商店。統一超商發布新聞稿指出,「X-STORE」特別選在位於統一超商總部大樓,初期將以內部測試為主,僅限員工使用,暫不開放外部顧客入店消費,營運時間為早上 7 時到晚上 7 時。統一超商說明,首間無人商店是透過各種科技軟硬體的運用,在「X-STORE」消費時,從入店、結帳到離店,全程透過人臉辨識 Face in、Face pay、Face go。統一超商解釋,其中有全球首創的零售服務業的應用模式,像是商店架構 OPENPOINT 會員系統新服務流程、臉部生物特徵辨識、商品辨識系統、感應式自動化 open show case、icash、智慧語音互動、IoT 系統運用、人流熱點分析、掃描式微波爐、自助結帳 POS 系統、電子標籤、e-POP、迎賓機器人、掃地機器人等技術。面對人口結構的改變、數位科技變革帶來的衝擊,全家便利商店預計在第一季開出第一波科技概念店,今天也釋出影片,讓消費者了解科技概念店的發展。全家表示,科技概念店將以四大技術,包含 IoT 物聯網、大數據、AI 人工智慧、RFID 無線射頻,來優化工作流程,降低店員工作量,預計藉由相關設計,單店一年可省下 858 小時的工時。全家解釋,科技概念店中有 IoT 應用在店舖設備監控及電子貨架標籤,由於單店商品約有 3,500 個品項,每 2 個星期要換檔一次,需花費 1.5 小時,運用電子貨架標籤可省下不少時間。另外,全家也說明,科技概念店中利用 AI 人工智慧自動製作咖啡,減輕店員在尖峰時段的工作量;RFID 技術則幫助貨物快速驗收,有助於店到店的物流效率;人臉辨識則應用大數據進行分析,幫助店舖了解商圈樣貌。(作者:陳政偉;首圖來源:7-ELEVEN)
《駭客任務》及《阿凡達》電影中的科技已不再遙遠,隨著腦機介面(brain-computer interface,BCI)科技的發展,人類透過意念來控制機器或外在裝置的目標已逐一實現。瑞士懷斯生物暨神經工程學中心(Wyss Center for Bio and Neuroengineering)正在利用源於人體幹細胞的大腦組織進行研究,裝載有大腦組織的細胞培養盤被放置在電極陣列之上,當電流通過時神經元(firing neurons)被觸發,螢幕上開始出現高低起伏的波。千萬別小看這些細微的神經元激活動作,因為所有智慧的產生,都是由這一個個細微的神經元活動累積而來,當你正在閱讀這個句子時,你大腦中已有無數的神經元被激發, 辨識這些文字的型體,轉換為音素,進而形成有意義的文字。成年人大腦約有 850 億個神經元,而平均每個神經元又有一萬個對外連結至其他神經細胞,試想要繪製出這樣錯綜複雜的神經網絡是多麼巨大的工程,然而一旦完成,關於大腦運作之謎將得以解開,也就是說,利用 BCI 達到「意念控制外部裝置」的夢想就要成真了。腦機介面的三大組成步驟為:腦波訊號取得(signal acquisition)神經元的動作電位(action potential)可透過侵入式(如直接安裝電極於腦內)和非侵入式方式(如利用腦電波儀及近紅外線光譜儀)被記錄下來。解碼(decoding)利用機器學習(machine learning)的技術處理大腦訊號,透過模式辨識(pattern recognition)產生控制訊號(control signal)。應用(application)控制訊號能夠啟動外部裝置的改變;腦機介面也可被用來刺激大腦。BCI 這項科技最早應用在 2004 年,13 位癱瘓病患身上被植入了一項名為「BrainGate」的系統,這項裝置是由一組小型電極所組成的陣列,稱作猶他電極陣列(Utah array),最初是由美國布朗大學(Brown University)開發。該裝置需植入大腦的運動皮質(motor cortex / 掌管身體運動),裝置上的電極能在有「想要移動手」這個念頭時,偵測到放電的神經元,這些訊號能夠透過線路回流至腦部的解碼器,將這些訊息解碼並轉譯為不同的行動輸出,如移動螢幕上的指標或控制四肢。這項系統曾成功協助一位因中風而癱瘓的女士,使用機械手臂來完成喝咖啡的動作。也曾幫助癱瘓患者以每分鐘 8 個字的速度完成打字,還曾被成功應用在失去功能的四肢。 2017 年,凱斯西儲大學(Case Western Reserve University)的 Robert Kirsch 教授也在《Lancet》發表了一篇關於 BrainGate 的研究,成功將裝置運用在一位因自行車事故癱瘓的患者雙手上,讓他在 8 年後首次憑藉自己的力量進食。像這樣腦與機器的互動,以各種形式改變了許多人的生活。2014 年於巴西舉辦的世界盃足球開幕典禮上,也呈現了用意念控制的機械外甲裝置來踢球,就像是電影《鋼鐵擂台》( Real Steel)的迷你版。另一項由德國圖賓根大學(University of Tübingen)Ujwal Chaudhary 主持的近期研究,也利用一種功能性近紅外線光譜(fNIRS)科技,透過偵測腦部紅血球氧合變化,協助與 4 名閉鎖期的漸凍症患者溝通。神經的活動能夠被刺激啟動也能夠被記錄下來。人工耳蝸裝置將聲音轉換為電子訊號並將它們傳至腦中,腦深層電刺激(Deep...
社群媒體巨擘臉書(Facebook)今天說,將在歐洲成立 3 座旨在培訓數位技能的新中心,致力在未來兩年培訓 100 萬人,做為臉書對歐洲的部分貢獻。路透社報導,臉書表示,將在西班牙、波蘭和義大利開設 3 座「社區技能中心」,也會透過旗下人工智慧研究機構在法國投資 1,000 萬歐元(新台幣 3 億 6,540 萬元)。臉書經常因隱私權和反壟斷等問題面臨監管當局施壓。臉書營運長桑德柏格(Sheryl Sandberg)告訴路透社:「人們擔心數位革命會把人拋在後頭,因此我們希望確保正在投資數位技能,讓人們擁有這些他們所需的技能,能夠充份參與數位經濟。」這些社區中心將對取得科技資源有限的族群提供數位技能、媒體識讀和網路安全等訓練課程,包括老年人、年輕人和難民。臉書也計劃在 2020 年前讓 100 萬人和企業主接受培訓。桑德柏格說:「我們當然希望確保人們看見我們正在對當地、對科技和對人類進行投資。」(譯者:劉文瑜;首圖來源:shutterstock)
近年不少科技公司都聚焦於人工智慧技術的開發,最近微軟(Microsoft)就公開了他們一項最新的技術成果。人工智慧系統單純透過文字描述就能夠創作圖像,該技術在文字描述中尋找關鍵字詞,然後再用來創作高畫質的圖像,據悉這個關注重點的技巧讓圖像的畫質較之前提升 3 倍。負責研發的 Microsoft 深度學習技術首席研究員 Xiaodong He 表示,圖像是人工智慧由零開始,逐像素逐像素創作。他以一幅人工智慧創作的黃色雀鳥圖像做解說,表示人工智慧分析文字後,再透過一項名為 Generative Adversarial Network(GAN,生成對抗性網路)的技術將文字轉化成圖像,人工智慧創作的黃色雀鳥並不一定在現實世界存在,只是電腦的一種想像。GAN 技術由兩組機器學習模型組成,一組負責以文字製作圖像,另一組則以文字去判斷製作出圖像的真確性,兩者結合去製作完美的圖像。研究員指人工智慧系統能夠創作出任何類型的形象,例如飄浮的雙層巴士、放牧中的牲畜等,而且在文字中欠缺的一些細節,系統會在影像中自行補完。 Microsoft’s AI Bot Can Draw Any Picture From Text Descriptions (本文由 Unwire HK 授權轉載;首圖來源:微軟)
recode.net 19 日報導,Google 執行長 Sundar Pichai 在接受電視節目專訪時表示,人工智慧(AI)是人類正在從事的最重要事情之一,AI 可以在治療癌症方面發揮作用。他說,這項科技對人類的影響程度可能勝過電力、火。Pichai 說,火可能會殺死人、但人類最終還是學會了利用火來造福社會。他表示,擔心 AI 是合理的,Google 會對這項新科技的應用進行周延的考量。Pichai 19 日在 NBC News 官網發表專文指出,2016-2026 年期間資訊科技(IT)支援工作機會預估將成長 10%,增長速度勝過官方追蹤的多數職業。他還提到,布魯金斯學會日前發表報告指出,2016 年要求須具備中級數位技能的工作比率為 48%,高於 2002 年的 40%。investors.com 報導,KeyBanc 分析師 Andy Hargreaves 19 日以看好 YouTube TV、Waymo(自駕車軟體廠商)、行動搜尋為由,將 Alphabet Inc. Class A 股票目標價自 1,150 美元調高至 1,280 美元。高盛(Goldman Sachs)19 日也發表報告、看好網際網路股的表現將可超越指數。高盛將 Google、亞馬遜(Amazon.com)、PayPal Holdings 放入確認買進名單。(本文由 MoneyDJ新聞 授權轉載;首圖來源:shutterstock)延伸閱讀: 科技雙雄齊拚 AI?Google、騰訊達成專利交互授權協議