人口高齡化、經濟水平提升帶動醫療需求上升,而龐大的醫療支出與醫療人力資源短缺也是世界各國共同面臨的挑戰,全球市場研究機構 TrendForce 指出,資通訊技術(ICT)在醫療健康領域的應用,可由應用目的分類為預防醫學、數位醫療以及精準醫療等三大部分,目前最積極導入人工智慧(AI)為預防醫學領域。TrendForce 生技產業分析師蔡尚燐指出,AI 在數位醫療健康領域的應用中,將扮演著樞紐或齒輪的角色。觀察常規醫療活動,病患的病歷、檢驗數據與醫療影像,以及在不同臨床場域、醫療照護模式中,所產生的這些大量臨床數據資訊,未來皆有機會藉由 AI 技術協助下,在短時間內處理與分析大量繁複、重複且精密的訊息資料,並進一步協助醫師進行判斷、分類與處理,以增加臨床反應的時間與協助病患照護的精確度。在這三大類別中,目前以預防醫學導入 AI 的發展最快速,由於預防醫學這類應用,處於法規約束的範圍之外,穿戴式裝置配合 App 或是網站所提供的自我健康紀錄系統,皆非涉及醫療行為,都可藉由使用者主動授權資料的約定,進而提供與大數據比對後反饋的即時服務。反觀數位醫療與精準醫療領域,由於牽涉醫療行為、數據與個人基因數據,屬於醫療行為及高敏感度個人資料保護,存在著高度的專業技術門檻與法規驗證限制,故要將各個應用整合將是相當大的挑戰。儘管法規尚未明朗,全球軟體大廠皆已率先投入然而,由於醫療照護產業的高毛利、高附加價值且剛性需求等特性,使得即便相關監管法規尚未完全明朗,也已經吸引國際級軟體大廠投入,包含 IBM、Google、Microsoft、阿里巴巴以及百度等科技巨擘,皆已投入相當大量的應用研發,為的就是未來能在AI醫療應用領域中,佔有一席之地。觀察台灣醫療發展 AI 的機會,蔡尚燐表示,台灣臨床醫學能力不亞於其他先進國家,而全民健保資料庫從 2000 年建置至今已逾 15 年,此龐大且完整的數據規模對於導入大數據分析與人工智慧應用開發,實是非常有利的先天資源,若能與台灣優秀的 ICT 骨幹產業產生鏈結應用合作,實是相當有利的機會。不過,由於開發數位醫療領域所需投注的資金,並不亞於在新藥與醫療器材的投資,而台灣廠商跨領域合作並不頻繁,加上法規監管尚未明朗的不確定性,再加上台灣法規單位對於個人資料保護、全民健保資料庫以及人體生物資料庫使用的侷限等種種因素,實為台灣廠商投入 AI 醫療應用的困難與挑戰。TrendForce 將在 2017 年 7 月 28 日,於台北市進出口商業同業公會 IEAT 會議中心 8 樓會議室(台北市松江路 350 號 8 樓)舉辦「第三波人工智慧發展浪潮」研討會。活動網址:http://seminar.trendforce.com/Campaign/AISeminar2017/TW/index/。(首圖來源:shutterstock)
技術發展至今,機器人能夠自主檢查核電廠,處理海洋中的石油洩漏事件,協助戰鬥機進行空戰,或是探索火星表面,但對它們來說,有些能力還是無法與人類比擬。其中一項人所特有的,就是辨識 3D 物體的能力,儘管機器人能輕易透過相機、感測器來「查看」物體,但它們還是難以像人類一樣,能從短暫一瞥中解讀出看到的東西。即使是世界上最複雜的機器人,也都無法做到這項多數孩子都能自動做到的事,但杜克大學的研究生 Ben Burchfiel 和他的論文顧問 George Konidaris,已經快要找到這個問題的解決方案。R&D Magazine 報導,為了使機器用更人性化的方式解讀 3D 物體,Burchfiel 兩人開發了一項新技術,讓機器人成功達成在混亂的桌面上分辨不同尺寸、形狀碗盤的任務。或許你不曾注意過自己的這項能力,但人類辨識 3D 物體的能力十分出色,不論從何種角度,物體顛倒與否,看見全貌或部分被遮蔽,人們都可以從短暫一瞥中大致分辨出看到的新物體,大腦會在想像中自動填補看不到的地方。研究團隊也希望賦予機器人這項能力,透過設計的感知算法讓機器人也能不用從多角度看見新物體,而學會猜測新物體的面貌和用途,「想像」出任何不在視野中的部分。一旦機器人具備這項技術,就不需要從每個角度觀察茶壺,也可以知道這個物體可能有把手、蓋子和出水口,也可以分辨它是否適用於何種爐子。Burchfiel 指出,比起實驗室或工廠車間,現實世界並非可控制的環境,事物也並非總是有序或可預測,對於要在日常與人類一起運作的機器人來說,這是相當重要的一步。12 日在劍橋舉辦的機器人科學與系統大會上,研究團隊表示,他們目前已經讓機器人在有限數量的訓練下,成功辨識新看見的 3D 物體,速度較以往最好的情況還要再快上 3 倍。(Source:Ben Burchfiel 個人網站)據了解,研究人員先用近 4,000 筆普通家庭物品的完整 3D 掃描數據訓練機器人的演算法,包含床、桌椅、梳妝台、監視器等,每個掃描再轉換為成千上萬的小立方塊,像樂高一樣堆疊在一起,讓系統更好處理。之所以這麼做,Burchfiel 解釋,是因為團隊認為,替每個可能的特定物體設定詳細的 3D 模型非常不切實際。透過分析這些掃描數據的範例,演算法開始學會使用稱為「機率主成分分析」(Probabilistic PCA)的技術,了解範例數據中的變與不變。運用這個演算法,機器人發現新物品時不再需要觀察全貌,就能基於從前的知識,像人們一樣概括分辨出兩個物體的不同,同時又能理解其中相同的部分,讓這兩個物體都同樣屬於特定類型的家具。為了測試這個方法的實用性,研究人員挑選了 10 種新的家庭用品,提供機器近千張從頂部拍攝的 3D 範例,讓機器從單一角度猜測對象是什麼,完整 3D 形狀又該是如何。結果發現包含隱藏部分,機器大概可以猜中物體 3D 形狀的 75%,較過去最好情況下猜中 50% 的比率大幅提升,不僅如此,它也能辨識各種方式旋轉的物體,這是過去其他演算法無法做到的。但在目前的情況中,演算法仍舊容易被物體在特定角度的形狀所迷惑,像是從上方看到一張桌子,而將其誤認為一個梳妝台,但研究團隊認為整體來說,這還是很大的進步,只是還不到能在實際生活運用的程度。儘管如此,研究團隊已成功讓機器人辨識一些 3D 物體,並透過「想像」填補視野中的盲點、重建未知的部分,Burchfiel 表示,「這在許多機器人應用中可能是無價的。」 Helping Robots Learn to See in 3D Bayesian Eigenobjects: A Unified...
蘋果一出手就要解決人工智慧的瓶頸問題,野心不算小,但是效果也不算不好。最近蘋果機器學習研發團隊一篇機器學習方面的論文,就巧妙地解決了訓練數據收集方面的大問題,不僅已經被頂級學術會議 CVPR 2017(IEEE國際電腦視覺與模式辨識會議)收錄,剛剛上線的 Apple Machine Learning Journal(機器學習日記)網站上的第一篇部落格,也就是這篇論文的介紹。7 月 19 日剛剛上線的「蘋果機器學習日記」網站,相比其他矽谷 IT 公司的 AI 研究院 Blog 可謂姍姍來遲,大家等待蘋果正式加入知識開放、動作迅速的 AI 研究大家庭已經很久了。不過讓人欣喜的是,第一篇部落格文章就能幫苦於沒有大量訓練數據的研究者解決不小的麻煩。以下就來介紹論文的主要內容。蘋果要降低準備訓練數據的成本對於現階段的各種人工智慧來說,用數據對它們進行訓練是一個必不可少的環節,且數據的品質會影響人工智慧的表現極大。比如以 4:1 擊敗李世乭的 AlphaGo 是用大量人類棋譜訓練的,李世乭當時也評價 AlphaGo 棋風有一些人類的影子;近兩個月前以 3:0 戰勝柯潔的 AlphaGo Master 版就是用大量 AlphaGo 高品質自我對局訓練的,讓 2016 年拋出「狂言」的柯潔今年只能甘拜下風。▲ 人工智慧要先看過很多貓的照片,同時還要告訴它每張照片都是貓。圍棋之外還有一個典型的人工智慧應用是圖像辨識,人工智慧要先學習過成千上萬張人類分好的、已經標註「貓」的貓咪照片,才能學會辨識其他圖片裡的貓。業內訓練圖像辨識系統一般用的都是 100 萬張等級的帶標註圖像,而財大氣粗的 Google 上週剛剛雄辯地證明,如果用別人的 300 倍那麼多的圖像(3 億張),可以讓辨識正確率進一步上升。只是如此數量的圖像已經沒辦法人類親自標註了,Google 也是用各種手段才湊出這麼多圖像。「湊更多的圖像」或說數據增補,有一種常見的方法是設計一個圖像模擬器,讓它仿照已有的、分好類的真實圖像,生成同類的圖像,新生成的圖像就帶有標註,可用於人工智慧模型的訓練。這種方法的成本就比人工低多了,但用圖像模擬器生成的圖像往往不如原有的圖像真實,訓練出的模型效果就不理想。選對思路很重要:提高圖像真實性所以蘋果的機器學習研發團隊就琢磨,既然能輕鬆生成帶標註的圖像,但它們的真實性不夠好,那我直接在這些圖像的基礎上提高真實性行不行呢?整篇論文要解決的就是這個問題。基於提高真實性的思路,他們仿照 GANs(對抗性生成式網絡)的模式,設計了一種提高圖像真實性的美化網路。這種美化網路裡包含一個「美化器」R 和一個「鑑別器」D,美化器要想辦法把現有生成的圖像變得更真實,然後把經過美化的圖像拿給鑑別器看;鑑別器則掌握一批真實圖像,參考真實圖像鑑別美化後的圖像是不是真的。美化器的目的是輸出更真實的圖像來騙過鑑別器,讓它分不出真偽;鑑別器則要不斷提高自己的水準,不能被美化器騙過。這兩個角色會交替更新,美化器輸出的圖像越來越逼真,鑑別器的鑑別能力也水漲船高。最終等到鑑別器怎麼樣都分不出真實和美化後的圖像,這個美化網路就學習完成了。 ▲ 美化網路的示意圖,圖像模擬器生成的圖像經過美化器 R 的處理以後變得更真實,鑑別器 D 發揮促進美化器 R 進化的作用。蘋果論文中的美化網路形式與 GANs 有類似之處,都是利用鑑別器...
AI 已從技術概念實際走入工廠應用中。日本 IT 大廠 NEC 推出「AI Visual Inspection」視覺檢測,運用機器學習技術,逐一檢測生產線上的產品影像,像是金屬、人工樹脂、塑膠等產品加工業的生產線,都能用 AI 進行高速檢查,進一步找出不良品,提升生產線效率,並改善勞動力。NEC 表示,過去當產品在生產線上完成時,最後一關多採用人眼目測的方式檢查,而這項工作必須由對產品非常熟悉、經驗老到的專家進行,因此面臨了人力不足、技能傳承的課題。NEC 表示,透過 AI 協助作業人員以肉眼檢查,可大幅減少一半的工作量,也能使產品品質更為均一,進一步往 IoT 的「Process Innovation」、「Product Innovation」邁進。機器學習技術「RAPID」NEC 將其機器學習技術命名為「RAPID」,其搭載深度學習機能,透過 GUI(圖形使用者介面)的方式,呈現對範例影像的標籤、學習、判斷結果,最終可像人類一樣辨識、理解圖像與影片資料,在影像辨識領域的業界最常被採用。▲ NEC 在「NEC Industrial Iot」中,新增以 AI 協助作業員肉眼檢查的解決方案「AI Visual Inspection」。(Source:NEC)在實際操作上,首先,製造業工廠現場在進行品檢時,會拍攝一系列的產品影像,NEC 將這些影像儲存保管在 IoT 平台「NEC the WISE Iot Platform」雲端上。當儲存的影像資料達到一定的量後,雲端的 AI 會運用這些數據,自動抽出與分析良品與不良品的特徵,並根據分析結果,進一步歸納出良品與不良品的判別模式,並將判別模式從雲端傳輸到工廠現場裝設的設備上。在工廠端,則會運用現場設備內建的 AI,以接收到的判別模式為基礎,在短短數秒內,完成判別產品是否為不良品。而當生產線要追加製造新的產品時,雲端的 AI 也會自動學習新產品的特徵資訊,並同步更新判別模式,進而有效降低追加設計、研發的工作量。(本文由 數位時代 授權轉載;首圖來源:Flickr/Robert Scoble CC BY 2.0)
紐約時報 10 日報導,英特爾(Intel Corp.)現在正面臨可能對其數據中心晶片主導地位和獲利能力構成挑戰的新競爭力量。IDC 分析師 Matthew Eastwood 指出,英特爾擁有數據中心伺服器處理器高達 96% 的市佔率。人工智慧(AI)的興起,讓專門用來處理大量雜亂數據與複雜機器學習軟體的新運算硬體變得炙手可熱。英特爾的通用晶片尚未針對最苛刻的任務進行調整,專用晶片則是在執行影像/語音辨識、語言翻譯的 AI 軟體時提供較好的效能。Bernstein Research 半導體分析師 Stacy Rasgon 指出,英特爾太晚搭上 AI 列車。英特爾則是認為 AI 仍屬新興科技,公司已做出重大投資。英特爾於 2016 年斥資逾 4 億美元購併一家名為 Nervana Systems 的 AI 新創企業。它將於美國時間 7 月 11 日在紐約舉辦號稱是近 10 年來最大規模數據中心發表會,揭露最新策略並公布 AI 計畫。英特爾正在測試中的「Lake Crest」晶片是專門為類神經網路(neural network)的 AI 軟體所打造,藉由分析大量數據能學習處理特定工作。道瓊工業平均指數暨費城半導體指數成分股英特爾 7 月 10 日下跌 0.68%、收 33.65 美元,今年迄今下跌 7.22%;盤中最低跌至 33.23 美元,創 2016 年 7...
全球第二大晶圓代工廠格羅方德(GLOBALFOUNDRIES)近期消息不斷,除了日前傳出 IC 設計大廠聯發科將自 2018 年初開始將部分訂單專由格羅方德代工,近期 22 奈米(22FDX)製程又接獲中國 IC 設計廠商上海復旦微電子下單,這也是格羅方德首次接獲中國廠商的訂單。根據中國媒體報導,本次上海復旦微電子下單格羅方德,預計將採用格羅方德的 22 奈米製程技術生產用於人工智慧、大數據的處理器,並且將在 2018 年下半年投入使用。在此之前,上海復旦微電子就已和格羅方德在智慧卡 IC 領域達成合作協議。報導進一步指出,格羅方德的 22FDX 製程量產始於 2015 年,特別針對快速發展的主流行動裝置、IoT 物聯網設備、RF 射頻和網路市場開發的,除提供媲美 FinFET 技術的性能,效能也與 28 奈米製程相近,但生產成本更低。過去,聯發科也曾經考慮採用格羅方德 22FDX 製程,用於生產 IoT 相關設備使用的晶片。上海復旦微電子集團則是中國從事大規模晶片設計開發,以及提供系統解決方案的企業。1998 年 7 月由上海復旦大學專用晶片與系統國家重點實驗室、上海商業投資公司和相關業者共同出資建立,並於 2000 年 8 月 4 日在香港創業板上市,為中國晶片設計產業中第一家上市企業。根據 2016 年財報顯示,上海復旦微電子的營收為 11.87 億港元(約新台幣 46.56 億元),淨利為 2.12 億港元(約新台幣 8.31 億元)。根據日前外媒報導,格羅方德位於四川成都高新區西部園區的晶圓代工廠興建工程,已獲得成都市政府 1 億美元(約新台幣 30.15 億元)投資。該座晶圓廠預計採用 22 奈米 FDX...
根據《華爾街日報》報導,半導體大廠英特爾(intel)11 日發表了一系列全新資料中心處理器 Xeon Scalable Family,計劃與超微(AMD)等公司爭奪目前獲利前景看佳的資料中心處理器市場。報導指出,英特爾人工智慧產品事業群副總裁 Naveen Rao 表示,新款處理器可為人工智慧(AI)和無人駕駛汽車等應用提供更強大的支援。這些處理器也瞄準了 Google、微軟、亞馬遜等擁有大型資料中心的科技大廠。因這些科技公司的資料中心不僅要為自己的業務提供服務,還要為客戶提供運算資源。本次英特爾推出的 Xeon Scalable Family 處理器是旗下 58 款處理器的升級版,價格從每個約 200 美元至 1 萬美元不等,突顯出英特爾守住數據中心市場領域主導地位的雄心。英特爾指出,Xeon Scalable Family 系列產品中,最高規的處理器速度比該公司之前最強的伺服器處理器平均快近三分之二。目前 Google 的雲端運算是第一個採用英特爾新款處理器的資料中心。當前,英特爾仍面臨對手超微的激烈競爭。尤其,超微最近剛推出新一代資料中心處理器。另外,許多大型網路公司也在使用自己的硬體設計,加上以 ARM 等公司的架構來開發處理器晶片,建構出客製化的白牌處理器,這樣的趨勢也帶給英特爾一定的壓力。市調研究機構 Gartner 指出,英特爾新款處理器比上一代產品效能更高,而且提升了人工智慧載入效能並更強大的儲存能力,這是英特爾目前在資料中心處理器市場上的優勢;但是,英特爾面臨的最大風險,是過於依賴少數大型資料中心營運商。這些大型資料中心營運商未來能採購多少處理器,完全取決於營運商如何吸引客戶採用他們的雲端運算平台。因此,新一代資料中心處理器的推出,能為英特爾帶來多少成績還有待觀察。(首圖來源:Flickr/Pascal Volk CC BY 2.0)
專注於電腦視覺和深度學習的中國人工智慧(AI)企業商湯科技(SenseTime Co.)7 月 11 日透過官網宣布完成 4.1 億美元的 B 輪融資,創下全球 AI 領域單輪融資最高紀錄。商湯科技表示這意味著公司已成為全球融資額最高的 AI 獨角獸企業。商湯在官網「技術優勢」網頁中提到,基於 NVIDIA 的 Telsa 系列 GPU 可以實現每小時入庫 200 萬張人臉圖像。商湯已服務過包括中國移動、銀聯、中央網信辦、華為、小米、OPPO、微博等逾 400 家客戶。華爾街日報(WSJ)11 日報導,商湯執行長徐立表示,公司將利用新資金支應自駕車、醫療診斷等 AI 領域研發。商湯成立於 2014 年,目前擁有 500名 員工,最新一輪融資意味著這家公司估值已超過 15 億美元。臉部辨識的商業用途日益擴大,範圍涵蓋企業門禁、登機證、ATM 領款以及旅館登記入住。蘋果(Apple Inc.)去年收購的新創公司 Emotient 也具備臉部表情辨識技術。麻省理工科技評論(MIT Technology Review)6 月 27 日公布 2017 年度「50 家最聰明企業」(50 Smartest Companies)名單,列出最能結合創新技術與有效商業模式的 50 家企業。NVIDIA 連續第三年上榜,從第 28 名(2015 年)、第 12 名(2016 年)一舉在今年躍居為龍頭。全球第一個臉部辨識獨角獸「Face++」在這份榜單名列第...
有時不禁在想,人類為什麼會需要人工智慧,是想讓生活和創造變得更簡單,還是單純想要實現科幻電影中我們對未來的想像,又或是人工智慧真的只是科技公司爭相追逐的下一個機會?然而不管人工智慧是以怎樣的「理由」滲透我們的生活,這個一會兒叫做「人工智慧」,一會兒叫做「AI」的新鮮事物,正被人們視為「第四次工業革命」的主角。▲ Google Assistant on iPhone。(Source:Google)在這場「革命」中,Google 算是領先部隊中又走在前列的科技公司了。AlphaGo 的故事已不必多說,承載「Mobile first to AI first」的 Google Assistant 人工智慧助理也即將住進 iPhone,這兩個不同場景下的「AI」一個被人們津津樂道,一個被人們熟知並嘗試融入人們的生活。大多數的科幻電影中,人類懼怕「AI」,害怕「AI」統治世界,對人類社會造成損失,類似的劇情可能正在現實中上演。人們擔心個人資料洩露,擔心被「AI」搶飯碗,擔心最後被「AI」取代。▲ PAIR。(Source:Google)Google 不僅意識到這點,且還籌劃了一個專門研究計畫,用來「安撫」人類對人工智慧的恐懼。這個計畫叫「People + AI Research initiative」,簡稱「PAIR」,從計畫命名就可以看出,Google 想讓人成為人工智慧的中心。(Source:Google)Google 稱,這個計畫將專注於「研究和重新設計人與人工智慧的互動方式」。Google 還稱,從開始建立一個人工智慧系統時,就把「人」灌輸到整個機器學習中。總之,Google 的意思就是希望人們在開發人工智慧時,不要忘了它是服務人類的。更加值得思考的是,Google 對人工智慧在 3 個不同領域中的反思:工程師和研究人員:AI 是人類創造的。如何讓開發者更容易構建和理解機器學習系統?他們需要什麼樣的教材和工具? 不同領域的專家:AI 如何幫助專業人士的工作?當醫生、技術人員、設計師、農民和音樂家使用 AI 越多時,我們要如何給予他們支援? 普通用戶:我們如何確保機器學習具包容性,如何讓每個人都能透過 AI 獲益?如何使用 AI 開發新應用?如何將 AI 背後的技術民主化?這 3 個反思可能並不容易想清楚,而 Google 也在官方部落格表示,其實他們也沒有想明白這些問題。不過,按照 Google 近似「理工宅」的形象、過去對人工智慧的執著,某種程度上是對新技術的極端追求。▲ Google AutoDraw 就是一種設計 AI 的嘗試。(Source:Google AutoDraw)但如今 Google 表示,將把人工智慧視為生活中的一件物品去設計它,就像隨著電腦圖形處理能力進步,人們從簡單的繪圖,開始逐漸設計出用戶互動介面,以及我們現在最熟悉不過的各類電腦和手機應用軟體,這些都是為了人們的工作和生活而設計的。人工智慧也當如此,不是為了炫技,不是為了搶佔賺錢機會,更不是為了讓人們感歎電影裡一切真的實現了。除了提出這些「願景」,Google 還發表了「PAIR」的開源工具供開發者使用。「PAIR」將為開發人員創建...
Deepmind 今年稍早「一戰成名」,在中國烏鎮圍棋峰會上,AlphaGo 戰勝了世界冠軍柯潔九段。在這之後,我們知道 Deepmind 會把 AlphaGo 的技術運用在疾病診斷等造福人類的領域。所以,Deepmind 最近在做什麼「高大上」的事呢?……他們在教 AI「跑酷」。最近,Deepmind 放出一段「搞笑影片」。其中的火柴人看似將以酷炫的動作翻越路上的障礙物,但不幸演出各類「花式摔跤」。在影片中,還有 4 條腿的「螞蟻」和只有身體和腿的「走路器」。Deepmind 表示,這些小人的動作都是 AI 控制的。在 AI 的幫助下,小人能做走路、跳躍等一連串動作,甚至能模仿行動不便的老人走路的樣子。為什麼 Deepmind 的 AI 不下圍棋,而是開發新愛好「跑酷」呢?Deepmind 發表的文章中,研究人員稱「跑酷」和圍棋在目的上顯著不同,這點就是他們希望 AI 學習的。研究人員這麼解釋:在一些 AI 問題中,比如玩雅達利(Atari)的遊戲和下圍棋,目標非常容易定義──就是贏。但你如何解釋後空翻的目標?或跳躍動作? 在訓練自動化系統運動時,如何向 AI 清楚解釋複雜動作,是經常遇到的問題。在實驗中,研究人員在火柴人的必經之路上擺放「矮牆」、鬆動的「地磚」等障礙物。AI 控制的小人在一次次翻越障礙不成功後,也學會了如何「安全」跑到終點。Deepmind 將這項技能形容為:我們的實驗對象在不接受指令的情況下演化出複雜技能。這是一個能用於訓練系統不同、模擬人體運動的技術。Deepmind 補充,他們採用一種「回饋學習演算法」(reinforcement learning algorithm)。這種演算法能幫助未來 AI 在不同環境中靈活自然地運動。在研究者的眼中,人工智慧控制的靈活行為是人工智慧擁有「運動智慧」的指標。在這技術的助力下,電腦很快就能勝任更複雜的工作,甚至變得和人類越來越像。▲ 你走路時是這樣嗎?Deepmind 對這項技術有不少期望。研究者在文章最後寫道:未來,我們可以將這些技術運用在複雜環境中,調控更多(機器)行為。調控一大堆模仿人類行為的機器?聽起來它們能做很多事,比如說……組成一個《西方極樂園》般的遊樂園?所以,Deepmind 今天還在花式摔跤的火柴人,能變成明日《西方極樂園》裡心思縝密、行動靈活的機器人嗎? Producing flexible behaviours in simulated environments (本文由 36Kr 授權轉載;首圖來源:影片截圖)延伸閱讀: Google AI...

