星期四, 16 1 月, 2025

科技新知 人工智慧

日前在群眾募資平台 Indiegogo 募資超過 2,000 萬新台幣的 AI 人工智慧翻譯機「Travis 翻譯寶」,近日現身台北國際電腦展(COMPUTEX)「InnoVEX」展區。該翻譯機主打 80 種語言即時線上與離線語音翻譯,但針對操作及翻譯成效的官方資訊並不多。究竟即將量產出貨的 Travis 翻譯寶,翻譯實力與品質如何?先從翻譯語言和技術說起Travis 翻譯寶由荷蘭新創團隊 Travis 所研發,共同創辦人暨產品長 Nick Yap 在受訪一開始便提到 Travis 期望打造一台世界通用的 AI 語音翻譯機,讓旅客、商務人士或任何有需求的人,都能隨時隨地「說當地話」,與人順暢地交流溝通。目前 Travis 翻譯寶稱能支援超過 80 種語言雙向對譯,主要與七大 AI 翻譯引擎資料庫合作,包括 Google、IBM、微軟(Microsoft),其餘四家則不便透露。「Travis 團隊會針對不同語言,評估並選擇合適的翻譯引擎商合作,」Nick Yap 表示,全球各個地區幾乎都有發展出在地翻譯引擎,更深入當地語言,也因此 Travis 不斷尋求機會與各地翻譯引擎商合作。「我們做的是即時線上語音翻譯,相較於單純只做離線翻譯的機器來說,較不容易被市場淘汰,」Travis 翻譯寶透過網路即時更新數據資料,是維持競爭力與實用性的一大關鍵。Nick Yap 笑說,在啟動群眾募資之前,原以為一般大眾需求會以英文與外語雙向對譯為主,「後來經過募資發現,需求最大的其實是中文和西班牙語,第三才是英文」。他認為中文和西班牙語的母語人士對外語翻譯的痛點極大,所以最先著重在這兩大語言及英文翻譯外語,再來才是日文、韓文等語言。語音翻譯準確率多高?不少人對於語音翻譯機有種迷思,認為現在的翻譯技術已經達到快速又準確的程度,只要一機在手就不用擔心語言問題了,這不禁令人想到最近相當火紅的語音翻譯機「ili」。但試想,如果現在連文字翻譯的程度都還稱不上準確,那技術難度更高的語音翻譯又有可能嗎?當 Nick Yap 被問及 Travis 翻譯寶的翻譯準確率時,他非常坦率地回答「不準」,接著提到,語音轉成文字的準確率可以達到九成,但以跨語言語音翻譯來說,目前相關技術還不成熟,其中一大原因是牽涉到語意問題。「請問化妝室在哪?」他舉例,到底「化妝室」指的是梳化室還是洗手間?若不了解話者語意,翻譯出來的意思就會有偏差。人與人間的溝通還可以從表情、語氣等判斷語意,但光靠翻譯機還無法做到,還是需要由「人」來解決這個問題。「用戶期望不要放這麼高,希望大家一起幫忙讓語音翻譯愈變愈好,」他期望用戶能大量使用反饋累積數據資料,讓語音翻譯在不斷學習進步下提高準確度。目前 Travis 除了評估挑選翻譯引擎外,也正在搭建自家數據庫,預計今年 7 月出貨給天使贊助者後開始累積使用數據,未來數據庫能成長得多大、多深,將成為其技術發展的關鍵。Nick Yap 表示,Travis 數據庫也將與合作的翻譯引擎交換,彼此在互助互補下共同精進語言翻譯。實機與應用表現仍是謎話說回來,Travis 翻譯寶即將在下月發貨,但在近日的 COMPUTEX 展中並沒有展出實機,也沒有示範操作,僅以模型機代替(如首圖)。因此有關實機操作夠不夠直覺順暢、麥克風和揚聲器效果、語音操作與回應速度、即時雙向翻譯表現等問題,目前仍未能獲得進一步資訊,有待正式出貨後持續觀察。現階段 Travis 翻譯寶僅將出貨給天使贊助者,目標今年年底前用戶數可達 5...
即將舉行的 WWDC 2017,預計會以 Siri 為重點。不過據《路透社》消息,本次的重點還是會放在 Siri 舊有的 6 項功能,即使增加支援項目,數量可能也很有限。Siri 早期都一直只能使用蘋果原廠提供的功能,直到 2016 年的 WWDC 才新增了 6 類第三方 App,包括訊息、視訊 & 語音通話、照片搜尋、體能訓練、支付、叫車服務。比如前一陣子 LINE 也開始能透過 Siri 傳送訊息。不過相比亞馬遜(Amazon)的 Alexa 已經支援達 12,000 項不同「Skills」,Siri 的 6 類 App 明顯單薄了點。《路透社》指出,根據他們的消息來源,蘋果似乎也不打算跟進更多功能,而是想繼續走往昔的風格,也就是只專注提供少量功能,但把它們做好──或許有點像當初的 iPod。目前來看,Siri 的自然語言辨識力雖然不怎麼優秀,不過似乎還是比 Alexa 自然些。或許是一次串接了太多功能,Alexa 的指令相對比較呆板,必須用專門的詞來操作,比如《路透社》舉了使用 Uber 的例子──如果用戶的動詞使用「ask」可以成功,但「order」則不行。不過也有人認為蘋果 App Store 的成功,證實「多功能平台」才是勝出的關鍵,因此還是看好 Alexa 一點。只是目前來看,智慧語音助理還只是開始,甚至仍沒有完整的平台商務規劃,比如以 Siri 來說,它只是操作現有 App 的另一種途徑或手段,因此算是奠基在 App Store 上;至於 Alexa 的「skill store」目前則仍是免費,因此開發者還無法從中收費。至於今年度的 WWDC...
在大數據時代裡,如何將蒐集到的數據進行處理、分析並且產出有價值的資訊已是個人、企業乃至於政府都亟欲培養的能力。其中「資料視覺化」也是相當熱門的領域,R、Python、D3.js 都是常被用於進行資料視覺化的工具。然而學會資料視覺化並非易事,至今許多人依然使用 Excel 做圖表,但好消息是,越來越聰明的 Google Sheets 現在可以直接幫你完成。只需問一個問題,Google Sheets 便可自動幫你建立圖表Google Sheets 於去年推出「探索」功能,使用者可以用口語化的句子詢問想知道的數據資訊,當時 Google Sheets 就已可依照使用者提供的數據建立圖表,但先前的功能是針對「整個工作表」,並不是很實用。而就在 6 月 1 日,Google Sheets 產品經理 Daniel Gundrum 在官網宣布他們已針對這項功能進行擴充:使用者只需問問題就可以得到想要的圖表。比如說你可以輸入「消費者滿意度的長條圖」或是「產品銷售種類的圓餅圖」,相對應的圖表就會自動產生。不同之處在於使用者可以「針對特定的資訊建立特定形式的圖表」,在使用上更加客製化而且符合用戶需求,完全不需自己找到需要的數據才能做圖表。不過目前看來 Google Sheets 只能協助建立基本款的圖表,更進階的資料呈現方式還是有賴資料視覺化才能完成。▲ Google Sheets 可自動幫你建立圖表。(Source:Google)按一下「Update」,所有資訊同步更新當 Google Sheets 裡的數據進行更新時,使用者往往必須手動修改 Google Docs 或 Google Slides 裡的圖表,但在新版的 Google Sheets 中,只要在先前的圖表上按「Update」,當數據有所變動時,在其他檔案中的圖表也會自動更新。▲ 按「Update」即可更新圖表資訊。(Source:Google)更多方便的新功能除了上述兩項功能外,Google Sheets 也因應使用者的回饋推出以下功能: 客製化捷徑:使用者可以根據個人平時在使用 Google Sheets 時習慣用的捷徑來修改瀏覽器的預設捷徑。 列印預覽:在列印 Google Sheets 的工作表前,使用者可以先行預覽列印後的介面並且調整邊界、選定大小或是設定要固定的行列。 多樣化的圖表選擇:使用者可以為圖表添加自訂的色彩,不須再使用預設色彩,此外也可在圖表上加入趨勢線。Google Sheets 裡有更多種圖表類型可供選擇,例如...
台灣政府過去推出許多遠大口號,產業界往往是表面上不敢違逆,私底下傻眼、嘲笑或痛罵,不過,不只政府會不斷創造口號,產業界自己也一樣,全球產業發展史上,多的是無數定義不清、前景不明,連創造者自己都搞不清楚定義的口號名詞,同一個名詞還會不斷改名,重複炮製,產業以外的一般民眾,往往被重複糊弄了好幾次,還汲汲營營的跟著喊,以為有跟上最新口號就是有遠見、有大視野,最慘的則是,連口號都已經過期了十幾年,還傻傻的繼續喊。近來「大數據」與「滷肉飯」之爭,就是一個這種傻勁的典範,大數據是未來?不,大數據本身就已經是 2000 年出現的名詞,光是「大數據」這 3 個字就已有 17 年歷史,而與大數據相同概念的前身名詞,最早自 1959 年就已經提出,相較之下,台灣知名、時常成為熱門網路討論話題的鬍鬚張滷肉飯,創業於 1960 年,當時還是路邊攤,也就是說,大數據比鬍鬚張滷肉飯還要古老。事實上,整個數據分析的概念,還可推到更久遠,最起碼從迴歸分析問世就應該開始起算,若是如此,那歷史得要往前推到史上留名的德國數學家高斯的年代,那可是 19 世紀初的 1800 年代,台灣還要等超過一個世紀才會發明滷肉飯(推測台灣滷肉飯是自日本時代改良品種誕生蓬萊米之後才出現,蓬萊米發表於 1926 年)。高斯雖然與勒壤得開啟了最早的迴歸分析,但當時顯然沒有電腦,一切都是仰賴「人腦智慧」來運算、找出數據的迴歸模型,沒有所謂電腦演算法,所以就把它們只算做是強調電腦運算的大數據的老祖宗。但 1959 年起,如今的大數據概念就已經確實出現了。十幾年來兩岸炒作大數據議題,只要是經歷超過 20 年的資深資訊業界人士,一聽到大數據的說法,往往反射式的回應:這不就是所謂「機器學習」(Machine Learning)或「資料探勘」(Data Mining)?的確正是,美國人工智慧先驅亞瑟‧李‧山謬(Arthur Lee Samuel)於 1959 年定義「機器學習」(Machine Learning),就是要發展演算法,讓電腦人工智慧能在並未事先指定特別方向或任務的情況下,從大量資料中找出資料中的關鍵之處或是異常之處,可以逐步學習,並具備預測能力。跟現在的大數據定義大同小異。機器學習也同時是另一個名詞「深度學習」(Deep Learning)的前身,時間往後推到如今的 2016 年,產業界的運算能力使得機器學習可發揮驚人的水準,其成就表現於 AlphaGo 以「深度學習」擊敗人類圍棋棋士,於是「深度學習」又一時成為當紅的新名詞,其實不過就是過去被遺忘的機器學習。如今深度學習已經開始應用於許多領域卓然有成,但 1959 年時,人類掌握的運算能力還不足以讓機器學習產生太大的有意義成果,結果口號喊了以後實質上成果有限,到 1960 年代,由於缺乏實績,統計學家嘲笑這種不設定預設假說、只是丟進一堆數據就想分析出成果的想法是異想天開,跟挖爛泥巴沒兩樣,貶稱為「資料釣魚」(data fishing)或「資料挖泥」(data dredging)。機器學習這個名詞蒙塵,遭扔進爛泥堆,但是電腦科學家的理想不變,到了 1990 年,又發明了新名詞,這次叫「資料探勘」,強調從大量電腦資料中找出關鍵或異常資訊的能力。其實,原本是要叫做「資料庫探勘」(Database Mining),很不幸的是,一家加州聖地牙哥電腦公司 HNC 已經為了其產品「資料庫探勘工作站」(Database Mining Workstation)申請商標,為了避免侵犯 HNC 商標,只好拿掉一個字,改叫資料探勘。同時還有許多其他講法,如「資訊收割」、「資訊發掘」、「知識萃取」等。資料探勘這個名詞風行了好幾年,也的確有許多應用,譬如在台灣,健保局於健保 IC 卡化後,利用資料探勘,察覺出診所申報的看診情況異常,再針對這些異常資料的診所進行實地檢查,果然發現其中有部分診所有詐騙健保的行逕,這就是一個相當成功的資料探勘應用。但是,一個名詞從 1990 年開始喊,到了 2000 年已經成了 10...
謝謝台灣大學邀請我參加今天的盛典,能和全台灣最頂尖的一群畢業生,以及各位的家人、親友齊聚一堂,分享你們的喜悅,我感到非常榮幸。首先,我要向所有的畢業生表達祝賀,我為你們感到驕傲! 還記得 34 年前,我跟各位一樣坐在大學畢業典禮台下。當年的我,大學四年,找到了我的兩個最愛。第一個最愛是我的初戀,也是我的畢生摯愛,我的妻子。而今天,不是來講我的初戀,而是來講我另外一個大學期間的最愛:人工智慧,就是現在最火的 AI。我最近找到我大學畢業時,申請博士作文。我把它 po 上了我的 fb:「 AI 是對人類學習過程的闡釋, 對人類思維過程的量化,對人類行為的澄清,以及對人類智力的理解。AI 是人類認識並理解自己的最後一步,我希望加入到這個一個全新但是最能改變世界的科學。」畢業那天之後的 34 年,我在 AI 科研、開發、投資方面不斷耕耘。今天,我很有把握地告訴大家:未來 10 年的 AI 革命比工業革命規模更大,而且來得更迅速猛烈。有什麼證據呢? 最近最大的科技新聞就是 AlphaGo 打敗人類最頂尖的棋手柯潔。棋聖聶衛平點評:AlphaGo 可以說是 20 段,人類要打贏 AlphaGo 唯一的希望就是拔掉電源。AlphaGo 只是一個例子,在過去的兩年,AI 在人臉辨認、語音辨認都超越了人類。 我們投資的一家 AI 貸款公司,每筆貸款只要 8 秒鐘,2比人花 8 個小時還要精確。這家公司今年將會發放 3000 萬筆貸款,幾乎超越了所有的銀行。 如果把這些技術和成果往後延伸,我們可以很確定地預測:未來十年,AI 能在任何任務導向的客觀領域超越人類。AI 將取代人類 50%左右的工作。AI 會取代工廠的工人、建築工人、操作員、分析師、會計師,司機、助理、仲介等,甚至部分醫師、律師及老師的專業工作。 在這十年,我們將進入一個富足的豐產時代,因為 AI 作為我們的工具,將為我們創造巨大的價值,幫助我們降低甚至消除貧窮和飢餓。我們每個人也將獲得更多的時間,來做我們愛做的事。 在這十年,我們將進入一個焦慮的迷惘時代,因為 AI 將取代人類一半的工作,許多人會因為失業,失去原本從工作中獲得自我實現的成就感,而變得憂鬱和迷茫。 接著,我想跟各位分享有關人工智慧未來的三個想像圖:金字塔,魔法棒,和愛心。首先來想像一個金字塔。隨著 AI 到來,職場的金字塔結構將會重組。金字塔頂端的人叫做創新者。AI 優化某一個領域的精確度,遠超人類,但是 AI...
惡意郵件是駭客攻擊最常用到的手段,不時肆虐的勒索軟體更是多次經過這種途徑散播。Gmail 為不少個人用戶以至中小企主要使用的電郵服務,安全自然備受重視。近日 Google 公布將為 Gmail 加入數項資安功能,並指透過機器學習技術即時阻擋垃圾郵件和釣魚訊息的準確度已達 99.9%。人工智慧保障 Gmail 安全:有效阻擋 99.9% 惡意郵件根據 Google 的統計數據,Gmail 收到的電郵中平均有 50%~70% 是垃圾郵件,為了進一步改進釣魚訊息的偵測性能,Google 建立了一個專用的機器學習模型,可延遲約 0.05% Gmail 郵件中可疑訊息的收發,以執行更詳細分析,並保障用戶的資料不被外洩,同時偵測模型也結合了 Google Safe Browsing 的機器學習技術,找出及標註出惡意 URL 連結。新的模型還結合了 URL 知名度及相似度等多種分析技術,讓 Google 能更快分析出是否屬於惡意連結,而且機器學習的特性也讓其更快改進出新的分析模型,變得更有效率,而點擊警示功能也會提醒用戶即將點擊的可能是導向惡意軟體網站的連結。另一個新功能主要是協助企業防止內部資料外洩:當員工回覆來自非經常溝通的外部電郵時,Gmail 將發出警告,確認用戶是否真的打算發送相關電子郵件。Google 指新系統對於不想設置複雜過濾設定的公司來說,提供了最基本的保護。此外,針對不時肆虐的勒索軟體,有散布病毒疑慮的郵件(例如含有執行檔或某些連結的郵件)都會遭 Gmail 封鎖,也禁止使用者在郵件中附加某些類型的檔案,包括:JS、JAR、VB、EXE 等特定檔案類型,或是包含這些檔案的壓縮檔;含有惡意巨集的文件等,保障用戶免受病毒和惡意軟體的侵擾。 Keeping your company data safe with new security updates to Gmail (本文由 Unwire.pro 授權轉載;首圖來源:Google)
根據統計,平均一種新藥上市需耗費將近 15 年時間,加上 16 億美元的花費。為了開發出一種新藥,研究者必須測試成千上萬種化合物,不但需要決定哪些分子會彼此結合,還需要測定這些結合的程度有多強。傳統上他們要使用試誤法(試估一個近似的結果,然後設法修正其誤差)以及排除法來分析上千種自然或合成的化合物,而這已經算是簡單的部分。然而僅僅發現化合物可有效對抗疾病是不夠的,還必須在三階段臨床試驗表現良好,並通過監察機構許可。不過這樣龐雜的情況也有扭轉的可能。一間位於舊金山的新創公司 Atomwise 設計了一套名為 AtomNet 的系統,這套系統的目的在於將藥物開發的初始階段精簡化,接手前述提到的繁重工作,他們利用深度學習預測分子結合的模擬情形,就像 AI 學會如何辨認圖像。且軟體還會藉由辨識模式教導自己有關分子連結的一切。AtomNet 的厲害之處可不僅如此,還記得高中時期學的 3D 模型嗎?利用塑膠棒和保麗龍球表示分子的鍵結,此軟體也利用類似的數位 3D 模型,綜合有關結構的資訊去預測分子的生物活性。顯然「快」這個形容詞還低估了 AtomNet 的能力。若用傳統方法要花上數天才能分析完 100 萬種化合物,靠著 AtomNet 在一天之內就可以完成。當然它也不是如此完美無缺,若真是如此,可能就要換科學家煩惱了。因為它無法發明新藥,甚至無法證明分子只要能結合就可以創造出有效的藥物。它能做的就只是預測分子對抗疾病的可能性有多高,然後科學家再利用預測結果將上千種化合物的範圍縮小至數十種,甚至更小,這樣一來他們就可以更專注於成功率更高的分子上。也許有人會懷疑這套軟體仍處於開發階段,上述的功能都只是理論。事實上,AtomNet 已經協助開發出兩種新藥分別對抗伊波拉病毒和多發性硬化症,證明了它驚人的實力。對抗後者的藥物已經在英國製藥公司獲得許可,而伊波拉病毒的藥物則提交給同行審查的期刊,以便進行更多分析。AtomNet 固然是一項極具潛力的科技,它能使藥物開發變得極為快速與簡便,但我們不得不注意的是,未來的方向將會致力於預防醫療,而不僅是「對症下藥」。兩者的差異在於,前者將焦點放在監控身體健康並採取必要措施預防人類得病,這樣的醫療方式可謂前景興盛。最近,致力於贊助和舉辦公共競賽以推動技術創新的 XPRIZE 基金會,贊助 250 萬美元給強化居家醫療和個人化醫療裝置的研發,顯示預防醫療的普及性逐漸增加。但這並不代表傳統的診斷方式不應進步,50 年後甚至 100 年後人們仍會生病,依然有藥物治療的需求。AtomNet 只是藥物開發的先驅,相信之後就會有更多人工智慧科技跟上它的腳步,解決更艱鉅的挑戰。 Drug Discovery AI Can Do in a Day What Currently Takes Months (首圖來源:Flickr/e-Magine Art CC BY 2.0)
在AI(人工智慧)蓬勃發展的帶動下,機器人已能以自然語言與人類溝通互動。TrendForce旗下拓墣產業研究院最新「人工智慧技術大躍進,智慧機器人商機無限」報告指出,2016 年整體服務型機器人銷售量中,語音助理機器人佔市場最大宗,其市佔率近五成,其次為掃地機器人,其市佔率為近四成。拓墣資深經理柏德葳表示,語音互動功能的機器人早已推出多年,但銷量表現普通,直到近年一些可操作家電產品、連網搜尋等功能的語音助理機器人問世後,才成功掀起 IT 大廠與新創企業開發語音助理機器人的熱潮,如亞馬遜自 2014 年底推出的 Echo,在 2016 年銷售量達約 520 萬台的亮眼成績,也因此在整體服務型機器人應用別市場中,表現最為突出。以全球大廠在服務型機器人的布局來看,目前有本田(Honda)的 ASIMO、軟銀的 Pepper 機器人、亞馬遜的 Echo,而夏普、日立、豐田(Toyota)與樂金電子也皆有發表自家語音助理機器人產品。導入機器學習技術,機器人將更加個性化觀察語音助理機器人的關鍵技術布局,儘管亞馬遜的 Echo 擁有高銷量,且樂金電子的 Hub Robot、優必選的 Lynx 與聯想的智慧助理音箱等,均搭載亞馬遜 Alexa 語音助理技術,但截至目前為止,多數廠商選擇的仍是 Fuetrek 等新創公司所開發的技術,或採用自行開發的技術導入在產品中。柏德葳指出,未來語音助理機器人除了持續強化語音辨識互動能力外,也將透過機器學習技術來學習、了解使用者的情緒、習慣,以期能在適當情況下提供必要的協助或採取合適的應對行為,使得語音助理機器人顯得更為個性化。如豐田 Kirobo Mini 的會話功能,其語音辨識是採用 Fuetrek 公司的技術,但對話交談引擎(Conversation Engine)是由 Toyota 獨自開發,其不預設任何應答情景,能對使用者的問題採取不同且具吸引力的回答。(首圖來源:shutterstock)
回台參加 Computex Taipei 2017 開幕演講的繪圖晶片大廠輝達(Nvidia)創辦人黃仁勳,5 日接受國立交通大學辦發榮譽博士學位,表彰其對科技業界的貢獻。現場包括台積電董事長張忠謀、聯電榮譽副董事長宣明智、矽品董事長林文伯、群聯董事長潘健成都應邀觀禮。張忠謀在貴賓演講中指出,輝達從專注於電玩產業圖形晶片起家,到近年來在 AI 人工智慧產業上的表現讓人驚豔,因此盛讚黃仁勳是一個優秀且成功的企業家。交大校長張懋中在致詞時指出,黃仁勳 9 歲移民美國,1984 年獲得美國奧瑞岡州立大學電機工程學士學位,1992 年由美國史丹佛大學電機工程研究所畢業、取得碩士學位,畢業後在超微與巨積擔任晶片工程師,30 歲時與 3 位朋友共同創辦輝達,專注於電玩產業市場。1999  年時,輝達發明了圖形顯示晶片,這一發明定義了現代電腦繪圖,並為平行運算與其在科學應用帶來的變革,讓從分子生物學到行星科學等各研究得以突破,同時輝達也開啟人工智慧領域大門,用 GPU 讓電腦與機器人以及自駕車等了解這個世界。過去 25 年來,黃仁勳帶領輝達從一個專注電玩產業的晶片企業,轉型到目前高效能的運算晶片公司,逐漸成為全球最重要的半導體公司之一。張忠謀則表示,自己與黃仁勳已認識近 25 年,當初是因黃仁勳找上台積電,希望可以藉台積電在晶圓代工上的實力一起開發晶片,並交由台積電生產,使雙方開始建立起友誼。隨著後來個人電腦產業成長,輝達逐漸擺脫了競爭對手牽制,成長到目前全球最大的繪圖晶片供應商。張忠謀也強調,接下來在人工智慧產業上,相信會是輝達下一波成長的主要動能。黃仁勳現在才 54 歲,所以輝達與黃仁勳未來都還有 30 年時間可高度成長。(首圖來源:科技新報)
談起科技公司的研究單位,Google 則有 X Lab,而微軟則有亞洲研究院,環境類似學術單位,從事不求短期回報的研究。微軟亞洲研究院成立快 30 年,今天 (5/26) 在台首次舉行 Academic Day 活動,請來多位 AI 學術要角,展示多項 AI 應用,其中用 AI 分析藝術創作,甚至還可以有模有樣的。用 AI 研究民族舞蹈甚至保存下來微軟亞洲研究院研究員池内克史 (Katsushi Ikeuchi) 博士運用拉班舞譜 (Labanotation) 概念分解人類動作,分析日本民族舞蹈跳舞的影像,並且最後用機器人完整重現人類舞蹈動作,未來也能幫助人類學家保存各民族珍貴的文化寶藏。 ▲ 台灣是南島民族是重要的據點,甚至日本人也可能受到南島民族影響。由於台灣南島民族語言歧異度相當高,再加上南島民族語言基本辭彙中不少是台灣嘉南平原常見動植物。因此有學者提出出台灣學說,南島民族以台灣為中心擴散,擴散到東南亞、太平洋島嶼。南島民族甚至跟日本民族組成有關,相關的研究受到日本的重視。池內分析台灣南島民族的舞蹈動作,依據舞步編排分類,發現台灣原住民的舞蹈演化譜系,與原住民民族的親緣關係無關。 ▲ 依據台灣原住民的舞蹈型式分類各族的民族舞蹈,發現跟各族的親緣關係無關。AI 學習導演剪輯演唱會錄影而在台灣的資訊研究領域,也有相當好的例子。中央研究院特聘研究員廖泓源博士,則是研究演唱會的影像,希望 AI 能學習演唱會影像紀錄,導演如何選擇畫面,來用 AI 挑選最好的畫面和聲源。廖博士從YouTube 找公開的演唱會錄影,訓練 AI 從辨識畫面是屬於特寫、近景、中景、長景、特長景,再依據不同錄影紀錄,之間是否有時間片段重疊,AI 判斷要採用哪段畫面,最後重新剪輯新的演唱會影像紀錄。 ▲ 運用官方的演唱會錄影,訓練 AI 辨識畫面的大小,培養導演的能力。AI 也能吟詩囉微軟還有展示實習生的 AI 成果,其中台大資工研究生訓練 AI 讀現代詩集,已經訓練出來可以做出與人類創造的新詩無異的詩作,並且還有出版詩集《陽光失了玻璃窗》。只要給 AI 一張風景圖片,AI 依據他「讀」詩的成果,做出相對應的新詩出來。這些成果已經融入微軟聊天機器人小冰裡,可以不只跟小冰聊天氣,還可以有文藝的對話。 ▲ 給一張圖片,微軟的...