星期日, 21 9 月, 2025

科技新知 人工智慧

AI 技術的風潮之下,不少企業想要發展 AI 領域,但面臨人才難尋的困境。多年來舉行資料科學年會的中研院研究員陳昇瑋博士,多了個身份,那就是台灣人工智慧學校的執行長。陳執行長在台灣人工智慧學校開學典禮上,期許人工智慧學校就像 AI 化的軍校,能快速生產與產業結合的 AI 專家,解決產業界面臨的新挑戰問題。政府代表科技部、經濟部、科技政委出席支持,以及商業公司代表,全力表達政府政策支持決心,藉由 AI 協助台灣產業轉型,商業公司也會與 AI 專家合作,解決產業面臨的問題。 科技部、經濟部:政府全力衝刺 AI 科技部長陳良基致辭時表示,去年行政院宣誓要推動 AI 發展,杜奕謹曾拜訪問到底政府搞真的還假的。得到滿意的答案後,回到台灣創立台灣 AI 實驗室。另外還有不少以 AI 為題目的團隊,聽到台灣在 AI 政策的支持,也回到台灣發展。今年是台灣 AI 元年,政府大量政策支持,政府協助年輕人趕上這波人工智智慧浪潮,為台灣一起打拚。 ▲ 台灣人工智慧學校校園一景。(Source:台灣人工智慧學校提供) 在首屆開學典禮中,台灣人工智慧學校孔祥重校長,同時為中央研究院院士及哈佛大學教授,在致詞中談到「人工智慧像電和火類似,影響深遠」,我們已看到產業有許多應用的成功案例,其中深度學習達到無人所及的優異表現,例如,陳昇瑋執行長的工作團隊有 15 個以上產業項目正在進行中,其中有 8 項在導入生產線中。然而,世界各地也注意到這股人工智慧商機,並且積極地投入應用開發,台灣必須搶佔先機,發展地更快,而且做得更好。 台灣人工智慧學校將迅速地跟上市場脈動、更全面地回應產業需求。如同 Nike 的品牌精神,我們也有一個很簡單的理念:「做,就對了!」 (“Just Do It”—Nike’s Slogan)。 ▲ 台灣人工智慧學校擁有 240 片 GPU,可以提供學員所需運算資源。(Source:台灣人工智慧學校提供) 經濟部沈榮津部長致辭時提到台灣長期以硬體製造聞名,在軟體方面表現較弱,但其實工廠機具運作累積相當多有關機器運作的巨量資料 (big data)。因此在去年才有微軟副裁來台灣,協助企業利用這些資料。經濟部得知 AI 對台灣產業轉型的重要性,才促成微軟在台設立 AI 研發中心。...
Google 台灣董事總經理以自己 Google 台灣第一號員工的過來人身份,談論台灣應當好好認識自己的優勢,發展具有優勢的項目。簡立峰在人工智慧學校開幕式演講,以自己當 Google 台灣第一號員工的身份,聊怎麼在跨國公司做事情。如果做得好被總部拿去做,做不好被趕走。自己要具備拿不走的優勢,要做生根台灣有優勢的項目。簡立峰還為李開復叫屈,講他說的話對也不對,台灣不能發展人工智慧,被斷章取義,忽略他講有但書,台灣有優勢應當做的事情。台灣處於相當特殊不大不小的環境,像是台灣人口不夠少不會放棄台灣市場,或是人口不夠多沒有足夠養活自己市場。另外說的中文不夠主流,不是最多人說的中文。簡立峰提及應當學習資源有限的小國發展模式,如芬蘭甚至以色列,以本土為重,主打海外市場。位於 Google 台灣的研發團隊沒有宣稱是研發中心,但卻是研發中心。Google 的工程師常是專案的骨幹。再加入 HTC 來的團隊,會變成台灣數一數二大的研發團隊。Google 未來在台灣會有更大規模的投入,敬請大家期待。簡立峰提及 TensorFlow 的專案沒有來自台灣的專案,期許之後台灣人工智慧學校開幕之後,學員能夠多多參與。(Source:科技新報)
機器學習常常並不是什麼偉大的功能,而是利用小細節的調整,巧妙的改善用戶的體驗。而 Twitter 就利用神經網路自動裁切照片,讓預覽圖可以呈現出整張圖最有趣的部分。Twitter 一直都在研究這項功能,終於在 1 月 24 日於官方的部落格中公布了這個消息。原先 Twitter 的研究人員是採取臉部辨識技術來裁切照片,但後來發現這種方法不適用於風景圖、物品的圖片,還有最多人會貼的,貓咪圖。為了讓預覽圖可以呈現出圖片的重點,或者是為了讓貓咪可以清楚地出現,他們提出了「裁切重點」的方法,不管是不是臉部而是找出整張圖最重要的地方。為了找出一張圖最重要的部分,他們將學術研究中人眼會先看到的圖片區域記錄運用到眼球追蹤的技術上,試圖找出實際上圖片中人們會最先看到的地方。利用這些資料來訓練神經網路,並預測人們可能會想看到的東西。這項技術經過優化之後能在短時間內找到圖片最有趣的部份,不會讓用戶在上傳圖片時造成時間上的延遲。▲ 上圖是原本的預覽圖,下圖則是經過神經網路裁切的預覽圖。(Source:Twitter)對研究人員來說非常幸運的是,這項裁切不需要到非常精確的程度,只要能讓預覽圖呈現圖片最有趣的那三分之一部份就可以了,最後神經網路比原本剛設計出來的時候速度要快了 10 倍。這項新功能已經在桌機版、 iOS 和 Android 版本推出,讓所有用戶能夠使用。 Twitter is using machine learning to crop photos to the most interesting part (首圖來源:Twitter)延伸閱讀: Google 研究員用一張簡單貼紙,成功吸走圖像辨識系統的所有目光 為了換一張預設使用者圖片,Twitter 花的心思超乎想像 美團隊 3D 列印出的這隻玩具烏龜,對 Google AI 來說怎麼看都是把步槍 除了基本分類,Google AI 還學會「審美」替照片評分
AI 物聯網將是今年最重要的關鍵字。從英特爾到亞馬遜都在爭奪這個全新浮出的人工智慧加物聯網商機,而這也正是台灣科技業成長之所在。要預測台灣廠商今年的動向,源頭都在每年 1 月在美國拉斯維加斯舉辦的 CES(國際消費電子展)。每一年,全球最頂尖的高科技廠商,都固定走著大致同樣的路線:1 月,在拉斯維加斯看完最新的趨勢;6 月,飛到台北參加 COMPUTEX(台北國際電腦展)下單;10 月,最後一批產品裝船,準備捕捉聖誕節商機。2018 年的 CES 尤其重要,當 iPhone X 銷售不如預期,高階手機無法再帶動全球高科技產業成長時,今年,所有人都湧向拉斯維加斯,看完 CES,你就能知道,為何 PC 下滑、手機飽和,但全球高科技零組件卻出現缺貨?也因此,台積電不只先進製程滿載,連成熟製程都供不應求。今年 CES 揭示的三大趨勢顯示,萬物聯網不再只是一句空話;當所有東西都配備智慧功能時,搭上這波風潮的台灣廠商,今年營收將再創新高。今年,Google 首次參加 CES 展,走進展場,「Hey Google」的廣告到處都是,Google 砸下重金,要與亞馬遜搶奪人工智慧語音助理市場的主導權。趨勢一:語音取代觸控 連蓬頭都能用語音控制原本平淡無奇的電子產品,加入人工智慧語音助理後,價值因此出現想像不到的翻轉。例如,美國衛浴設備大廠 KOHLER 就與亞馬遜合作,把 Alexa 語音助理服務加入馬桶,甚至水龍頭。想像一下,洗頭洗到一半,只要喊一聲,「Alexa,給我按摩水柱」,蓮蓬頭就會用你習慣的水溫和水量送出溫水,你甚至可以開口問蓮蓬頭水溫幾度,馬桶、水龍頭以後再也不需動手,就能操作,這個改變,會讓原本就和亞馬遜合作的聯發科,增加多少市場?另一個例子是 Alexa 智慧音箱,你只要向亞馬遜買一個智慧音箱,就能使用亞馬遜開發出的上萬種應用程式,這些人工智慧程式,有的可以與你玩猜歌遊戲、有的可以播報天氣、有的可以幫你叫車,亞馬遜還計劃推出智慧秘書服務,進軍企業市場。Google 這次也秀出自己的本事,他們在現場展示的智慧音箱,能與現場觀眾玩「猜心遊戲」,只要問你幾個問題,就能猜中你心裡想的是哪個卡通人物;而在現場擺用語音助理控制的果汁吧,只要開口說,這台機器就能自動調出你要的果汁。當然,你也能用 Google 的智慧音箱控制家裡的燈光、音響,或是關掉廚房裡正在烤餅乾的烤箱。南韓的未來資產公司(Mirae Asset)分析師 Wonjae Park 則在報告中指出,語音助理可能會是面板業的新機會。因為,Google 挑戰亞馬遜的武器,就是讓語音助理和螢幕連結,當你開口問一個問題,亞馬遜會用語音回答,Google 卻能讓答案「視覺化」,找到你想要的影片,或是把你要去的地方路線圖,顯示在螢幕上。今年,Google 就和 40 家車廠結盟,以賓士為例,就展出結合 nVIDIA(輝達)人工智慧晶片和 Google 語音助理的新操作介面 MBUX,這輛車裡,用 2 個 10 吋的 LCD 大螢幕取代傳統指針,成為最主要的介面。不只賓士,現代汽車、豐田汽車都展示配備高階顯示螢幕的概念車款,現場還展示了一輛配備 49...
中國共乘平台經營商滴滴出行 1 月 26 日宣布,繼滴滴研究院、滴滴美國加州研究院之後將再成立人工智慧實驗室(AI Labs),藉以加大 AI 前瞻基礎研究並加快推進全球智慧交通前沿技術發展。這座 AI 實驗室將由滴滴副總裁葉傑平教授領軍,目前團隊已有逾 200 位從事 AI 前沿技術研發的科學家和工程師,預計今年規模將進一步提升。滴滴 AI Labs 將聚焦探索 AI 領域技術難題,專攻機器學習、自然語言處理(NLP)、語音辨識、電腦視覺、深度學習、統計學等領域的前瞻技術研究及應用。葉傑平 26 日指出,滴滴透過 AI 與大數據技術、目前已可以提前 15 分鐘預知需求變化且準確度高達 85%。南華早報報導,葉傑平表示,滴滴利用跟 AlphaGo 一樣的技術去優化導航路線。滴滴目前在中國擁有逾4億名用戶,股東包括阿里巴巴、騰訊。(本文由 MoneyDJ新聞 授權轉載)延伸閱讀: 科技雙雄齊拚 AI?Google、騰訊達成專利交互授權協議 「滴滴出行」在蘋果總部旁開設了自駕車實驗室
身為一家在全球影響力頗大的科技公司,蘋果的魅力不只是推出的各類產品,更在環保事業的貢獻。蘋果首款智慧喇叭 HomePod 剛宣布在美國、英國以及澳洲開啟預購後,就開始關心這款新產品對環境的影響。HomePod 環境報告近日,蘋果官方發表一份關於 HomePod 的環境報告,詳細說明對環境的影響,包括氣候變化、能源效率、物料效率和限制性物質等。這份報告的左側,列出蘋果為了降低 HomePod 影響環境採取的措施,例如: 無溴化阻燃劑 無聚氯乙烯(PVC) 無鈹 100% 的包裝纖維來自其負責管理的森林或再生紙 HomePod 效能:聽歌比一顆 LED 燈泡還省電HomePod 的設計,頂部有一塊 272×340 解析度的 LED 螢幕,內部有 7 個揚聲器陣列,配備 A8 晶片,且有 6 個麥克風陣列全向接受語音指令。據蘋果介紹,設計之初,HomePod 以上這些元件都優先選擇低功耗套件,蘋果還專門設計低功耗軟體,以便讓 HomePod 實現更優質的能源效率。正因為這樣,HomePod 的能效表現要優於美國能源之星在音訊/影音版本 3.0 方面的環保評級。低功耗的待機型態下,HomePod 在 100V、115V 以及 230V 等電壓下的功耗大約在 1.71W~1.76W 之間。播放音樂時(用 iTunes 以 50% 的音量播放音樂),HomePod 的功耗也處於 8.69W~9.25W 之間。3 種電壓下的電源效率分別為 89.9%(100V)、90.0%(115V)、89.7%(230V)。蘋果宣稱,HomePod 播放音樂時,功耗比普通家用 LED 燈泡更低。這個參考物件,是經過能源之星認證的 A19 LED 燈泡,平均功耗為 9W~10W。也就是說,用 HomePod 聽歌並沒有那麼耗電。HomePod...
在 2017 年下旬 Google 產品發表會首度亮相的 Google Clips,上週末悄悄地在美國 Google Store 展開預購、隨即搶購一空。這款相機結合人工智慧,能夠辨識出完美的表情、光線以及構圖,自動捕捉美麗自然的影像,並經由機器學習提高拍攝技術。Google Clips 自動捕捉珍貴畫面,錄製 Motion Photo外觀輕巧的 Google Clips 可用背夾隨身攜帶,隨時隨地拍照或錄影。除了直接按下鏡頭下方的快門鍵拍攝,它更透過機器學習(Machine Learning)技術辨識人臉、自動捕捉珍貴畫面,錄製成數段 1-3 秒、沒有聲音的 Motion Photo,效果類似蘋果的 Live Photo。Google Clips 不與任何 Google 的雲端服務共享數據,這些影像只加密儲存在相機上,用戶需使用特定 App 瀏覽,可透過 Wi-Fi 傳送到智慧型手機再分享至社群平台。此外,它具有鏡頭偵測功能,當鏡頭被擋住會透過手機通知提醒用戶。Google Clips 建議售價為 249 美元(約台幣 7,300 元),但在 Google Store 卻已搶購一空,海外消費者只能等待電子郵件通知,而已經下單成功者預計可在 2 月 27 日至 3 月 5 日之間拿到商品。以人為本的設計初衷,Google 聘請專業攝影師協助開發既然 Google Clips 結合 AI(Artificial Intelligence,人工智慧)技術隨時捕捉畫面,為了內建軟體能夠識別出拍得好或拍得不好的照片,必須要有大量的影像數據做基礎。由...
1 月 28 日,阿里巴巴技術委員會主席王堅在《麻省理工科技評論》和 Deeptech 深科技共同舉辦的新興科技峰會 EmTech China 上發表演講。在 2017 年的雲棲大會上,城市大腦 1.0 正式發布,王堅當時交出了用智慧治理城市的周年答卷:接管杭州 128 個訊號燈路口,試點區域通行時間減少 15.3%,高架道路出遊時間節省 4.6 分鐘。在主城區,城市大腦日均事件報警 500 次以上,準確率達 92%;在蕭山,120  救護車到達現場時間縮短一半。城市大腦 2.0 版本雖然還在研發當中,但王堅表達了城市大腦下一階段的目標:讓世界上每個城市都取消車輛的限行。他認為現在的道路資源是足夠的,但沒有進行優化,他們要讓所有的道路發揮到最高的效率。「這個世界本來是不需要修那麼多路的,我們現在不得不這麼做,是因為資源的利用效率不高。」他說,不應該像波士頓一樣把道路修到地下。今天的中國,每個城市大約要拿出 20%-25% 的土地來修路,但他相信,經過城市大腦的努力,可以幫助城市省下 5% 的土地資源,這將為社會提供一筆巨大的財富,也會開啟巨大的市場。當然,治理交通壅堵只是城市大腦的第一步,做為城市重要的基礎設施,阿里未來還可能會讓它在城市治理、城市安全、醫療健康等社會全領域發揮基礎性作用。以下為王堅演講內容實錄:我認為今天最大的智慧硬體,就是我們所熟知的城市,它可能是人類有史以來發明的最大的智慧硬體。過去兩年我有幸參與了一項工作──城市大腦,可以把如此龐大的硬體變得智慧。今天會議主題是雲端上的 AI 風暴,而我認為更好的說法,可能不是 AI,而是 Internet 和 Cloud,或者說應是智慧雲計算。現在我們生活在城市中,每天面臨著諸多的不便與各種各樣的問題,比如交通問題,為了解決這些問題,人類曾付出了很多的代價,舉個例子,「波士頓大挖掘」為了城市的美觀,花了幾十億美元把幾條高速公路從地上轉移到地下。為什麼說如果一個事物擁有了一個人的智慧是很重要的事情,那是因為人知道如何把各種資源綜合利用,比如在合適的時間進行說話、寫字,知道如何將最小的能量與精力去換取所需要的東西。回到今天的對象──城市來說,我們的城市還是一個四肢發達、頭腦簡單的存在,是一個「無腦城市」,它需要一個大腦去幫助它更好的運作。如今可以有機會進行「城市大腦」的研究,得益於網際網路等基礎設施的飛速發展,這樣我們可以有足夠的數據資源去重新思考如何去構建我們的城市。目前全世界的城市共同面臨的最大的問題是交通問題,這個問題在過去並沒有得到很好的解決,而現在網際網路、大數據的發展給我們提供了可以解決的機會。先來看在目前已有資源存在的情況下依然還沒有解決的問題: 雖然訊息系統、智慧系統發達,但還不能準確描述城市的某一時刻某一路段上會有多少車。 城市的規劃管理者(如市長)也還不能準確知道每位市民每天的出遊計畫。 這兩個問題是最基本的,但如果得不到解決,城市交通的優化(使得市民出遊更加順暢)就可能無從下手。所以目前面臨的最大的問題,就是解決問題的需求與目前所獲得的資源是並沒有完全匹配。這就需要一個新的機制可以像大腦一樣來完成這件事情。我們在杭州進行試點,進行一個機制的切入,所調動的資源包括城市的空間資源──道路資源,城市的時間資源──紅綠燈資源。這兩種資源在過去沒有得到很好的利用,如今有了網際網路與大數據的技術,就要把它們優化和利用起來,以此進行對城市交通的優化。當我們拿到這些資源後,發現大家也忽視了一件事情,那就是我們今天對時間的調配效率是遠遠低於大家的想像的,任何的城市都會有這樣的情況,一個很重要的原因,那就是今天的交通模型並不能真實反映城市的交通情況的,現在,遍布中國城市的密密麻麻的攝影機也給了我們得以了解城市每天所發生的事情的機會。城市的數據資源、現代的網際網路和大數據技術可以讓我們來優化所有公共資源的使用,交通是一個非常突出的例子。杭州的實驗發現了 3 個有意思的事情: 第一次真正的可以準確的知道在城市的某一時刻某一路段上有多少輛車。這個發現可以用於城市車輛限行的製度的優化,目前的限行制度是存在頗多問題的,比如限行之後,城市發生了什麼?是否真的解決了交通壅堵?比如杭州城區有 120 萬輛車,單雙號限行後,還有 120 萬輛車,那 60 萬輛車又是從哪跑出來的?這是今天交通碰到的一個非常大的問題,應該保證每一輛車都有它所匹配的足夠資源。 當道路資源(車輛數目)是確定的情況下,唯一可以優化的就是時間資源,也就是紅綠燈的配置。所以在杭州的第二個事情就是根據攝影鏡頭看到的交通情況,來動態地調整紅綠燈配置,也就是動態地來調整交通的時間資源。在一條貫穿杭州整個南北的高架的試點上,我們達到了可以讓車在這條高架上平均使用的時間降低 5 分鐘,這是一個非常大的數字。在地面的路上,平均的車速可以提高 15%-20%。以前是通過把路修寬來提高車速,現在靠的是過去大家見不到的東西──數據,也可以提高車速。 當整個城市的各項活動可以用一個大腦來協調的時候,會帶來很多意想不到的結果。在任何國家和任何城市,都有特種車輛,如警察的車、救護車等,這些車在道路上有特權,過去這個特權是靠闖紅燈得來的,這有很多的問題,比如它會帶來次生事故。 在杭州的試點,我們發現,當把這些車輛與一個城市的大腦的調度協調相結合、配合的時候,結果驚人:救護車可以在不闖紅燈的前提下,從到達它要救護地點的時間縮短了 50%,從過去的 15 分鐘左右降到現在的...
說到遊戲與 AI 的關聯,許多人想到的都會是遊戲中非玩家角色(NPC)的動作或對話應對,但 BGR 報導介紹的一款簡單的勇者遊戲,AI 系統的工作卻並非如此。這款遊戲是由英國法爾茅斯大學(Falmouth University)AI 資深研究員 Mike Cook 設計,嚴格來說,Mike 並沒有完成這款遊戲,他只是將簡單的概念傳達給 AI 系統,並由其接手進行開發遊戲的工作。這個系統稱為「ANGELINA」,在 Mike 對其提供初步的設計概念後,ANGELINA 便會接過概念進而延伸設計出遊戲,以這次的例子來說,Mike 提供給 ANGELINA 的初步概念非常簡單:玩家必須指揮在地下城的一位冒險者,殺死骷髏到達出口。接過這個初步概念後,ANGELINA 在設計中巧妙些微調整了 Mike 的想法,讓遊戲內容變得更有趣。比起傳統讓玩家控制一位冒險者,並將目標設定為殺死骷髏到達出口,ANGELINA 選擇將遊戲設計為玩家必須同時操作多位冒險者,且在多數情況中,必須選擇犧牲其中一些人才能離開,Mike 認為這是非常聰明的關卡設計,他將其稱為「在冒險之前」(Before Venturing Forth)。Mike 造出 ANGELINA 已有一段時間,提供初步概念後,Mike 便會看著它打造遊戲:有些很有趣,有些糟得很可笑,更多的是介於這兩者之間。只是 ANGELINA 設計遊戲的工作究竟怎麼進行的?▲ ANGELINA 早期設計的遊戲。 (Source:gamesbyangelina 截圖)Mike 解釋,ANGELINA 最主要的技術是計算演化(computational evolution),當它在設計遊戲某個關卡時,會先隨機製造出一大堆關卡,接著測試且完成所有內容,儘管其中多數都非常糟糕,但仍有一兩個相較其他好上那麼一些。接著 ANGELINA 便會選擇較好關卡的優點,並將其混合在一起製造出一個全新關卡,然後再次啟動這個循環:測試、挑選、混合內容。Mike 將設計遊戲的過程分解成不同的幾個任務,像是設計關卡、發明規則、測試難度等,而 ANGELINA 會根據現在遊戲缺乏的內容選擇任務,運用包含計算演化在內各項技術來完善每個層面。目前 ANGELINA 仍需要依靠 Mike 的意見來做一些事情,像是提醒它「需要花較長時間解決的關卡必定更好」,但 Mike 期望未來能將 ANGELINA 變得更獨立,這樣它才能拋棄這些舊有觀念,從全新不同的角度讓遊戲變得更有趣。截至目前為止,ANGELINA 已生產出約 30 款遊戲,其中多數都已被刪除,因為並不具備成為遊戲系統的全面能力,Mike...
本期介紹的論文是《Deep Scattering: Rendering Atmospheric Clouds with Radiance-Predicting Neural Networks》(深度散射:輻射預測神經網路成像繪製大氣雲)。這是一篇由迪士尼公司獨立發表的論文,教你訓練一個神經網路,透過模擬光線過程來繪製雲層。這項技術的難點在於,必須運行一個叫做幾何體光線路徑追蹤的演算法。這是一種用來模擬光線輻射的技術。因為在很多光線散射過程當中,光輻射並不是直接被物體表面反射,而是穿透了物體(比如這裡的雲層)。所以,要想建立雲層物理外觀模型,關鍵是要準確地獲取雲層幾何體。前提是,迪士尼必須模擬出可能出現的數百次散射過程(包括其中的百萬級光線路線)。但這個計算量太龐大了。在這篇論文裡,作者們提出了一個很好的混合方法:用神經網路快速學習、快速預測在散射過程中的光輻射,以節省一部分的計算量。另一部分仍然使用傳統演算法。雲層成像過程中,訓練神經網路所用的數據包含了 75 個不同的雲層。其中一部分是電腦自動生成的,另外一部分則是由藝術家繪製的,可以讓神經網路學習到多種多樣的案例。最終效果驚人,圖片的成像時間被壓縮到了分秒級。要知道,如果用傳統方法來做這類渲染,即使放到計算能力超強的平台也非常耗時。迪士尼也不需要再多等幾小時,來看調整之後結果是不是比之前的運算成果要好。因為散射的參數也可動態調整,非常短的時間內就可以完成了。這項技術同樣支援不同的散射模型。所有的成像結果都需要和真實進行對比,可以看到它們大多數看起來和真實的沒什麼兩樣。註 1:這篇文章的新意是對神經網路在新穎工程方面的應用,針對的是在傳統雲層成像當中 in-scattered radiance prediction 這個在實際使用當中的痛點。註 2:這個神經網路的基本結構是在普通的多層感知機上使用 ReLU 做激活函數,其創新在於構造了一種特殊的layer 來模擬雲層當中光線散射的特性。註 3:這種特殊的 layer 是一個二層結構,其中輸入層相當於雲層的幾何矩形圖形,然後第二層相當於內部光線散射的範圍,整個 layer 相當於模擬了一次光線在雲層內部的散射,工作機理有些類似 CNN 內部的 filter。(本文由 雷鋒網 授權轉載;首圖來源:pixabay)