「嗯,我不在家,麻煩把包裹放在樓下管理室就好。」上班時接到快遞員電話的我們,通常是這樣回答。然而,國外很少有可臨時保管包裹的地方。所以當收件人不在家時,快遞員都將包裹放在門口。據智慧家居裝置公司 August 統計,在 2016 年,全美有 1,100 萬戶家庭曾有包裹被偷,而 YouTube 等影片網站也有很多記錄包裹被偷的內容。(Source:影片截圖)據 CNBC 報導,知情人士表示,亞馬遜正在研發一款智慧門鈴,可讓快遞員在配送時,獲得一次進入用戶家裡的機會,把貨物送進門。無人看管的快遞配送,並不是理想的「最後一哩」解決方案,因為那會將貨物暴露在多種風險下。 而且,(配送丟失的)負面影響並不只是金錢,對(銷售方)品牌聲譽和用戶忠誠度都有很大損害。Planet Retail RNG 分析師 Natalie Berg 受訪時說。知情人士還表示,亞馬遜正在和智慧車牌公司 Phrame 談合作,希望以後可將貨物配送至消費者汽車後車廂。Phrame 的智慧車牌,讓車主透過手機 App 授權配送人員,在特定時間內單次開啟後車廂,並將貨物放在裡面。除此之外,Phrame 的車牌裡還有一個超小型保險箱,可用於放車鑰匙。用戶可透過 App 控制保險箱開關。(Source:Phrame)今年 7 月有媒體報導,亞馬遜正和部分公寓洽談,希望他們可安裝帶鎖的置物櫃。這樣的話,快遞配送時,就可直接將包裹放在櫃裡,而不是放在家門口,提高安全性。(Source:搜狐)防止你家門前的快遞被盜,也成了新產業雖然大公司都不願意公布包裹遺失資料,事實上,這些公司都在想方法減低貨物被偷率,而亞馬遜也不是第一家。之前沃爾瑪也曾推出實驗性服務「送貨到冰箱」,以對付這問題。沃爾瑪和智慧家居裝置公司 August 合作,提供矽谷裝有 August 智慧鎖和安全鏡頭的用戶「送貨進家門」,甚至「送貨進冰箱」的服務。(Source:Walmart)多次按 August 智慧門鈴,且無人回應後,快遞員就可輸入用戶授權的一次性密碼開啟家門,並把產品送進家裡,甚至將生鮮類食品擺入冰箱,整個過程會由鏡頭拍攝記錄。但出於隱私保護等原因,該服務只在小範圍測試。沃爾瑪電商戰略部門負責人也坦言:該服務也許並不適合所有人,但我們希望為用戶提供參與測試的機會,並以此幫助我們塑造未來的電子交易。專為保護家門前包裹安全而生的智慧產品也越來越多。除了上述提供限制性開門密碼的智慧鎖,Mail Haven 為用戶安裝智慧信箱保護包裹,而 Package Guard 會在察覺包裹被偷後通知用戶及周邊鄰居。(Source:Package Guard)(Source:影片截圖)Package Guard 的創始人 Michael Grabham 認為,這類盜竊包裹的案件仍會不斷增長,因為做起來實在太容易;同時他也認為,「隨著(被偷)問題增長,應對該問題的科技產品也會越來越多」。(本文由 愛范兒 授權轉載;首圖來源:Package Guard)
人工智慧(AI)技術從單一特定領域的「弱人工智慧」,發展成具備人類能力的「強人工智慧」甚至到無所不能的「超人工智慧」,會否真如奇點(Singularity)理論所言將呈指數型加速成長,並在不久的將來超越人類、顛覆世界?創新工場董事長兼首席執行官李開復認為,這樣的預測非但不科學而且「非常不負責任」。AI 只是工具,強人工智慧十年內發生機率是零有未來學家和奇點理論支持者相信,AI 會在「加速回報定律」(The Law of Accelerating Returns)下以指數形式不斷加速躍進,強人工智慧也將因此早於預期發生,繼而持續進化為超人工智慧迎來奇點,而人類則因進化速度有限而遭到淘汰。至於強人工智慧或超人工智慧何時到來?可能十五年,也可能二十年、五十年,專家預測說法各有不一。不過,以技術發展來說真會如此「樂觀」嗎?「去預測未來技術像這樣階梯式成長,是非常不負責任的,」李開復近日在《人工智慧來了》趨勢論壇中指出,過去十年除了深度學習外,並未出現其他能及得上深度學習十分之一的重量級技術,也不能假設每年技術都會有大躍進。他在著作中提到,AI 從弱人工智慧發展到強人工智慧的過程當中,會像摩爾定律(Moore’s Law)般遇到技術瓶頸,可能會在一段時間加速發展後,遇到難以在短期內解決的技術難題。另外,AI 技術能力發展至今為單一特定領域,在跨領域任務上還缺乏可操作的標準,而且也很難根據 AI 發展以來的表現和進步速度,預測強人工智慧或超人工智慧何時到來,「所以奇點是偽科學,是不可相信的,」他說。李開復直言,不少人對 AI 抱持著錯誤理解,包括英國天文物理學家霍金(Stephen Hawking)、Space X 與特斯拉創辦人馬斯克(Elon Musk)認為 AI 未來將對人類造成威脅;也有人以為 AI 就是強人工智慧,能跟人一樣有情感、思維、跨領域思考能力及創造力。「其實強人工智慧根本不存在,未來十年內發生機率是零,」李開復強調 AI 只是人類的工具,今天的 AI 不僅沒有感情也沒有七情六慾。不同於人類以生存做為自我最佳化的目標函數,機器的深度學習是針對一個目標函數和大數據實現最佳化,本身沒有生存概念,不會產生感情更不會控制人類,兩者完全不同也無法相提並論。弱人工智慧將取代 50 %工作,人們應從「心」應對挑戰雖說未來十年也許不會發生強人工智慧,但弱人工智慧也並不「弱」,其厲害程度就足以影響人們 50 %以上的重複性工作。「弱人工智慧能夠在單一領域扎得非常深,就像 AlphaGo 擊敗人類冠軍,以後會在金融、醫療、教育等各個領域,取代該領域相對重複性高的工作,帶給人類巨大的影響,」李開復認為 AI 將在未來十年顛覆各個領域,衝擊會比工業革命還劇烈。他指出,工業社會時代受益者所認為的「只要努力工作,哪怕是很簡單的工作,都能得到財務自由,有房有車」,這樣的價值觀到了 AI 時代就是個災難,以後當重複性工作消失,就算努力工作又該如何獲得財務自由?「這個問題很巨大,不只是失業問題,而是有關人的自我實現、自我尊嚴、自我價值,以後的路該怎麼走,」他認為未來貧富差距會愈來愈懸殊,失業者可能遭菁英成功者欺凌,也可能喪失自我價值與尊嚴而造成社會問題。李開復相信人類可從 AI 所不能為的領域,找尋各種新機會或將工作轉型,朝創造性、關愛服務型工作發展,也就是從「心」解決 AI 革命所帶來的挑戰。由於 AI 缺乏情感、不懂得關愛,也無法理解跨領域事物,人們反而可以從 AI 弱點中找機會、創造價值,尤其台灣因為有人情味、懂得關懷所以特別具有優勢。「過去我的人生目標是發明可以取代人腦的 AI,」李開復坦言自己曾有過錯誤想法,但經過多年歷程與疾病喚醒後才有所領悟,「其實人最重要的器官不是我們的大腦,而是心」。他強調,未來會是人類與 AI 共存的時代,每個人都應該了解與學習 AI,把 AI 當成工具,並在各個領域發揮其價值。(首圖來源:天下文化)延伸閱讀: 李開復:從機器的弱點找未來機會,讓 AI 人工智慧當你的「工具箱」 李開復:AI 人工智慧未來十年發展分三波,看好鴻海成為頂尖領導企業...
全球搶進人工智慧(AI)布局,IDC 預估,零售業、銀行業、離散製造業、醫療保健和流程製造業將是未來 5 年 AI 支出最大的行業;明年台灣將有近 7 成金融業導入人工智慧。據國際數據公司(IDC)全球認知/人工智慧 IT 支出(IT Spending)報告指出,2017 年全球認知和 AI 系統支出總額將達到 120 億美元,比 2016 年成長 59.1%;2021 年全球認知和人工智慧(AI)系統的支出預計將達到 576 億美元,預計 2016 至 2021 年複合成長率(CAGR)將達 50.1%。IDC 預計,零售業和銀行業在 2017 年將會是在認知和 AI 系統花費支出最大的領域,投資額分別為 17.4 億美元和 17.2 億美元。預計離散製造業,醫療保健和流程製造業也將在今年花費超過 10 億美元。IDC 認為,零售業、銀行業、離散製造業、醫療保健和流程製造業,在未來 5 年將繼續是支出最大的行業,到 2021 年,其合併投資將佔全球支出的近 55%,零售業除了在認知和人工智慧系統上花費最多,也將實現最快的成長, 2016 至 2021 複合成長率預估為 58.8%。全球人工智慧(AI)應用正處於百花齊放階段,台灣也不例外,已有不少台灣企業導入人工智慧技術以提升營運效能,例如製造業透過人工智慧技術辨識與分類不良晶圓類型,並透過分析大規模數據資料的方式找出根本原因。也有不少銀行等金融服務業者推出整合人工智慧技術與聊天機器人服務的智慧助理,藉此拉近與客戶的互動關係;除了製造業與金融業,台灣軟體服務商與新創企業積極強化對人工智慧技術的掌握度,循序推出具備人工智慧功能的服務,例如媒體採購的程序化購買應用等。IDC 預計,2018 年台灣將有 68% 金融業導入人工智慧,製造業次之,達 25%。IDC 台灣企業應用研究經理蔡宜秀指出,隨著人工智慧軟體、硬體與服務的到位,將有越來越多的台灣企業投入,預估在...
國際商業機器公司(IBM)資深發明家麥納瑪拉(John McNamara )預測,人工智慧奈米機器 20 年內就能植入人體,協助修復和強化肌肉、組織和骨骼。英國「每日電訊報」(Daily Telegraph)報導,麥納瑪拉向英國上議院人工智慧委員會(House of Lords Artificial Intelligence Committee)提交證據;這個委員會負責研究人工智慧對經濟、道德和社會的影響。麥納瑪拉說,20 年內,科技將有長足進步,人類與機器就能有效「結合」,促使人類意識與認知往前邁進一大步。他說:「我們可望看見人工智慧奈米機器被植入人體,這將為醫療帶來巨大益處,例如有助修復細胞、肌肉及骨骼損傷,甚至可能強化它們。」麥納瑪拉還說:「此外,藉由現已開始探索的科技,我們看見結合生物學與技術學的科技產品,能直接強化人類認知能力,可望大幅改善心理健康,也能運用大量計算能力來強化我們的思維。」他說:「利用這些植入人體和出現在我們周遭的科技,我們將可開始透過思想和手勢控制環境。」包括微軟公司(Microsoft)在內等企業的科學家已開始研發用 DNA 製成的電腦,這種電腦能存在細胞內,尋找人體網絡缺陷,例如癌症。假如偵測到罹癌的可能,就會重啟系統,清除患病的組織。麥納瑪拉也預測,人工智慧還能不受新聞和政府辯論的影響,依據選民的世界觀,向他們提供該把票投給誰的建議和原因。然而,他也警告,人工智慧崛起恐對零售和服務業者構成「嚴重衝擊」,引發一大波失業潮。麥納瑪拉說:「就今天來說,貧窮意味無力負擔最新款智慧型手機,然而在未來,這恐怕會是有一群人可能在體能、認知能力、健康和壽命方面異常突出,更大一群人缺乏這類優勢的差別。」(首圖來源:Pixabay)
一場關鍵會議,業界赫然發現,台積電已著手開發和人腦細胞匹敵的超級晶片。去年底,美國國防部最神祕的先進計畫署(DARPA),同意把美軍最先進的軍用晶片交給台積電生產。 今年是台積電設立 30 年,其市值也到達前所未有的新高峰,但台積電還在積極前行。 當人工智慧晶片成為全球企業競逐的戰略物資,處理器產業的遊戲規則正在轉變之際,台積電早已全面展開下一個 10 年的 AI 大戰略!如果你錯過 nVIDIA(輝達)過去兩年股價成長 8 倍的機會;那麼,你更應該注意,今年開始,另一波半導體大成長的趨勢正在發生。今年,全球半導體產業交出一張破紀錄的成績單,根據 SIA(半導體協會)統計,光是今年 7 月,全球半導體銷售金額就達到 336 億美元(約 1 兆 80 億元台幣)!這是過去 20 年來,全球半導體產業從未見過的榮景。半導體設備投資同樣創下新高,根據 SEMI 的「全球晶圓廠預測報告」指出,今年全球半導體廠購買新設備的投資額高達 550 億美元(約 1 兆 6,500 億元台幣),同樣刷新 20 年來紀錄。今年中,半導體龍頭應材就交出 50 年來單季最佳獲利的成績單。「今年是破紀錄的一年!」SEMI 台灣區產業研究資深經理曾瑞榆說,「明年還會更好」,根據半導體協會預估,明年全球半導體廠投資設備的總金額,將達 580 億美元,比今年更高!全球半導體爆發成長創紀錄 台積電位居要角 明年營收會更好當然,在這波全球半導體的爆發成長中,最值得注意的公司,就是全球晶圓代工之王──台積電。台積電在半導體市場扮演無可取代的重要角色,可從美國國防部找台積電生產高階晶片,得到印證。去年 11 月16日,DARPA(美國國防部高等計畫署)發布一份代號為 CRAFT(Circuit Realization at Faster Timescales,電路加速開發計畫)的計畫附件,這份計畫主要目的,是要讓美軍軍用晶片開發時程,從年縮短到月,計畫第一頁就寫明,參與計畫的廠商可使用台積電 16 奈米製程產品。任何人只要進入美國國防部高等計畫署網站,就能找到這份文件。今年 1 月,美國加州矽谷一家 Flex Logix 公司,他們設計的新型電子產品已通過美國國防部認證,今年更獲得台積電頒發智財權夥伴獎。美國軍事雜誌分析,CRAFT 計畫開發的產品可用來控制無人飛機,或是將平面的雷達影像變成立體圖像;換句話說,未來要開發智慧型武器,就要靠這些新型電子元件。美國 EE Times...
由於少子化與高齡化,老人獨居現象將愈來愈明顯,為因應未來社會樣貌,各國政府絞盡腦汁,如新北市政府試辦青銀共居,盼一次解決空屋、高房價、獨居 3 大問題即是一例。智慧家庭應用也可望減輕長照壓力,加州新創公司 Brain of Things 宣布正在加州 3 地開發「機器人家園」,這些公寓配有大量感測器和自動化燈具和電器,透過電腦伺服器收集數據,使用機器學習演算法構建行為模型,能夠學習,適應居民的習慣和偏好。麻省理工科技評論(MIT Technology Review)報導形容這個機器人家園的學習能力到「幾乎令人毛骨悚然的程度」。Brain of Things 創辦人 Ashutosh Saxena 是史丹佛大學研究人員,聲稱「機器人家園能夠知道居住者在做什麼,如看電視或睡覺,隨著追蹤居住者在房裡的活動,還可以知道更多。」譬如,居住者早上起床上班時,公寓的百葉窗會自動拉起,晚上在正確的時間自動關上;如果公寓感覺到居住者晚上起床喝水,會自動點亮夜燈;如果週末晚上晚回家,或有朋友來家裡聚會,機器人家園甚至會在星期天早上晚一點啟動日常任務。有些人可能會質疑智慧家庭的必要性,但是對家庭裝置增加更多智慧化技術、聯網和溝通能力是不可否認的趨勢。Nest 恆溫器可學習辨識用戶的加熱偏好,而 Smart Things 等公司的產品可透過網路使用現有設備,並透過程式使裝置更智慧化。Saxena 的學術研究側重於機器人學習和分享資訊的方式,他認為,雖然近來已經對汽車自動化給予極大關注,但自動化家庭可能更為重要,原因是人們花 5.5% 的時間在汽車上,但花在家裡的時間高達 68.7%。Brain of Things 的機器人家園配有約 20 個運動感測器,以及燈具、家電、娛樂系統、暖氣和空調,連管道都是聯網和自動化,還有寵物專用的自動化監測和餵食系統。居住者可使用一般開關,也可以使用語音命令或智慧手機應用程式來控制,隨著時間累積,公寓會學習一個人的偏好,並嘗試預先提供服務。這套系統需要維護以便提早發現問題,至於隱私考量,Saxena 表示臥室不會有感測器,且每個公寓收集的數據都不會離開建築物。Brain of Things 與加州聖羅莎的房地產開發公司合作開發機器人公寓,現在已經有幾個人住在裡面,這項技術讓每月租金增加 125 美元,物業主每月要花費 30 美元維護。維吉尼亞大學研究智慧建築科技的教授 Kamin Whitehouse 承認人們會擔心隱私問題,但是老人或殘疾人的需求應該會超過對隱私的擔憂,他認為目標受眾是真正需要的人。Saxena 認為,人們每天平均開燈關燈 100 次,每個人都會認識到自動化的好處。他說,「有一天,人們會認為起床開燈這個動作非常愚蠢。」 A Robotic Home That Knows When You’re Hungover (首圖來源:Flickr/Franck Michel CC...
由 3 位中國研究人員撰寫的學術報告發現,Google 人工智慧(AI)比蘋果 Siri 聰明近兩倍,不過兩者都比不過 6 歲孩童的智商。報告指出 Google AI 的 IQ 值領先所有科技同業,2016 時 Google AI 的 IQ 值達 47.28,同期間中國百度的 IQ 值有 32.92、微軟搜尋引擎 Bing 有 31.98,蘋果 Siri 對比之下最笨,IQ 僅有 23.94。(CNBC.com)Google AI 雖然打敗同業,但仍低於一個 6 歲小孩的智商(55.5),更遠不及一個 18 歲青年(97)。儘管如此,包含 Google、微軟與蘋果都持續砸錢研發,未來 AI 肯定會越來越聰明,應用領域也會擴大。應材執行長 Gary Dickerson 日前受訪曾預言,AI 競賽不久後將成為科技業景氣循環的主要推手,包含運輸、健康照護、娛樂等領域,未來都會出現驚人改變,預料能創造數兆美元的經濟價值。(本文由 MoneyDJ新聞 授權轉載;首圖來源:shutterstock)延伸閱讀: AI 需求湧現,晶片將有變革!外媒:台積電/應材成夯股 LINE:AI 不只是機器學習,而應該是生活中的虛擬助理
人心惶惶的危機當前,Google 搜尋結果的置頂資訊一定完全可靠、可信嗎?槍手根本不是他!Google 成為假消息散布幫兇?美國時間星期日(10 月 1 日),賭城拉斯維加斯露天音樂節發生嚴重槍擊事件,一名槍手從 Mandalay Bay 飯店 32 樓朝音樂節觀眾開槍掃射,造成至少 58 人喪命、超過 200 名民眾受傷的慘劇;外媒稱這是自 2001 年 911 恐怖攻擊以來,美國本土發生最血腥的攻擊事件。慘劇發生後全球關注,各地電視台、媒體不斷更新消息,網友、鄉民也在網路世界討論著,美國警方隨後證實槍擊案的嫌疑人為 64 歲來自內華達州的史蒂芬‧帕多克(Stephen Paddock)。 This man, Stephen Paddock, has just killed 50 and wounded 200 people in Las Vegas. Media still not calling this a Terrorist Attack! ? pic.twitter.com/0QoEb3cShf — Phil Kgopolo Mphela (@PhilMphela) 2017年10月2日但在更早之前有網友在論壇 4chan,錯誤指稱槍手是另一名男子 Geary...
麻省理工學院(MIT)的科學家開發出一款名為 CodeCarbonCopy(CCC)的新工具,其中一名開發成員 Stelios Sidiroglou-Douskos 表示:「CodeCarbonCopy 能實現軟體工程界夢寐以求的目標之一:自動重用程式碼。」透過 CodeCarbonCopy,開發人員可先選 A 軟體一段程式碼,再選 B 軟體的插入點,系統就能自動完成必要變更,如改變參數名稱等,以確保程式碼妥善植入 B 軟體。且移植程式碼時,CodeCarbonCopy 還能執行靜態分析,移除 A 軟體必要但對 B 軟體毫無作用的功能。CodeCarbonCopy 之所以能夠做到這些,第一是有基本變數移植的能力,使用 CodeCarbonCopy 意味著從抓取和導入程式碼片段的兩個地方並列執行程式,CodeCarbonCopy 可辨識完成同一角色的變數,並幫作業人員將它們列出來。它還能顯示無法符合的變數,這樣一來,程式設計師可以手動關聯變數或將變數從移植過去的程式碼去除。另外,CodeCarbonCopy 還能考慮兩個程式在內部如何表示資料,相應調整移植過去的程式碼。這參照每個程式庫如何處理資料(比如兩種不同的色彩格式 RGB 和 BGR 之間調整)、以什麼順序處理。也正因如此,CodeCarbonCopy 目前僅適用處理的資料採固定格式的應用程式間移植,比如圖像、影片、音訊、PDF 及其他格式。據悉,該工具沒有正式對外釋出,還在內測和完善階段。研究團隊透露,他們已成功使用 CodeCarbonCopy 在 6 款流行的開源影像處理程式之間移植程式碼。團隊進行了 8 次試驗,其中 7 次成功,接受端程式成功執行移植過去的程式碼,沒有錯誤。測試的軟體分別為:MPlayer、VLC、mtPaint、cwebp、bmp2tiff 與 ViewNIOR。當然,這不是麻省理工學院(MIT)第一次嘗試程式設計界的革命。之前,他們還設計開發了一款兒童程式設計工具 ScratchJr。使用者可以不認識英文單詞,也可以不會使用鍵盤。構成程式的指令和參數透過積木形狀的模組達成,用滑鼠拖曳模組到程式編輯欄就可以了。此外,MIT 開放的影像標注工具來源碼 LabelMe 也是一款非常實用的圖像輔助工具。眾所周知,電腦視覺需要用到大量標註圖片,這款工具能幫助用戶建立自訂化標注工作或執行圖片標註,進而提升效率。(本文由 36Kr 授權轉載;首圖來源:pixabay)延伸閱讀: ScratchJr:讓孩子在程式設計中學習
人工智慧(Artificial Intelligence,AI)是指人類製造出來的機器所表現出來的智慧,它從早期是以更聰明的機器手臂取代工廠裡的勞工,到機器學習過濾垃圾郵件,分析我們的行為並且投放相關的廣告,近來年由於深度學習技術的突破,無人車即將取代司機,甚至靠腦力的白領工作都岌岌可危,到底什麼是機器學習?什麼又是深度學習呢?我們常常聽到的「機器學習」(Machine learning)是屬於人工智慧的一部分,另外「深度學習」(Deep learning)又屬於機器學習的一種,如下圖所示。▲ 人工智慧、機器學習、深度學習的範圍。(參考:nVidia)機器學習(Machine learning)顧名思義機器學習就是要讓機器(電腦)像人類一樣具有學習的能力,要了解機器學習,就先回頭看看人類學習的過程,人類是如何學會辨識一隻貓的?大致上可以分為「訓練」(Training)與「預測」(Predict)兩個步驟:訓練(Training):小時候父母帶著我們看標註了動物名字的圖片,我們看到一隻小動物有四隻腳、尖耳朵、長鬍子等,對照圖片上的文字就知道這是貓,如果我們不小心把老虎的照片當成貓,父母會糾正我們,因此我們就自然地學會辨識貓了,這就是我們學習的過程,也可以說是父母在「訓練」我們。預測(Predict):等我們學會了辨識貓,下回去動物園看到一隻有四隻腳、尖耳朵、長鬍子的小動物,我們就知道這是貓,如果我們不小心又把老虎當成貓,父母會再次糾正我們,或者我們自己反覆比較發現其實老虎和貓是不同的,即使父母沒有告訴我們,這個是我們判斷的過程,也可以說是我們在「預測」事物。機器的訓練與預測要讓機器(電腦)像人類一樣具有學習與判斷的能力,就要把人類大腦學習與判斷的流程轉移到機器(電腦),基本就就是運用數據進行「訓練」與「預測」,包括下列 4 個步驟:獲取數據:人類的大腦經由眼耳鼻舌皮膚收集大量的數據,才能進行分析與處理,機器學習也必須先收集大量的數據進行訓練。分析數據:人類的大腦分析收集到的數據找出可能的規則,例如:下雨之後某個溫度與濕度下會出現彩虹,彩虹出現在與太陽相反的方向等。建立模型:人類的大腦找出可能的規則後,會利用這個規則來建立「模型」(Model),例如:下雨之後某個溫度與濕度、與太陽相反的方向等,就是大腦經由學習而來的經驗,機器學習裡的「模型」有點類似我們所謂的「經驗」(Experience)。預測未來:等學習完成了,再將新的數據輸入模型就可以預測未來,例如:以後只要下雨,溫度與濕度達到標準,就可以預測與太陽相反的方向就可能會看到彩虹。機器學習的分類機器學習和人類學習的過程類似,要先進行「分類」(Classification),才能分析理解並且進行判斷,最後才能採取行動,分類的過程其實就是一種「是非題」(Yes 或 No),例如:這一張照片「是」貓或「非」貓。機器學習是由電腦執行程式自行學習,一邊處理大量資料,一邊自動學會分類方式,就如同人類在學習一樣,因此機器學習就是在進行資料處理。機器學習的種類監督式學習(Supervised learning):所有資料都有標準答案,可以提供機器學習在輸出時判斷誤差使用,預測時比較精準,就好像模擬考有提供答案,學生考後可以比對誤差,這樣聯考時成績會比較好。例如:我們任意選出 100 張照片並且「標註」(Label)哪些是貓哪些是狗,輸入電腦後讓電腦學習認識貓與狗的外觀,因為照片已經標註了,因此電腦只要把照片內的「特徵」(Feature)取出來,將來在做預測時只要尋找這個特徵(四肢腳、尖耳朵、長鬍子)就可以辨識貓了!這種方法等於是人工「分類」,對電腦而言最簡單,但是對人類來說最辛苦。非監督式學習(Un-supervised learning):所有資料都沒有標準答案,無法提供機器學習輸出判斷誤差使用,機器必須自己尋找答案,預測時比較不準,就好像模擬考沒有提供答案,學生考後無法比對誤差,這樣聯考時成績會比較差。例如:我們任意選出 100 張照片但是沒有標註,輸入電腦後讓電腦學習認識貓與狗的外觀,因為照片沒有標註,因此電腦必須自己嘗試把照片內的「特徵」取出來,同時自己進行「分類」,將來在做預測時只要尋找這個特徵(四隻腳、尖耳朵、長鬍子)就可以辨識是「哪類動物」了!這種方法不必人工分類,對人類來說最簡單,但是對電腦來說最辛苦,而且判斷誤差比較大。半監督式學習(Semi-supervised learning):少部分資料有標準答案,可提供機器學習輸出判斷誤差使用;大部分資料沒有標準答案,機器必須自己尋找答案,等於是結合監督式與非監督式學習的優點。例如:我們任意選出 100 張照片,其中 10 張標註哪些是貓哪些是狗,輸入電腦後讓電腦學習認識貓與狗的外觀,電腦只要把照片內的特徵取出來,再自己嘗試把另外 90 張照片內的特徵取出來,同時自己進行分類。這種方法只需要少量的人工分類,又可以讓預測時比較精準,是目前最常使用的一種方式。【延伸閱讀】機器學習的種類還有增強式學習與馬可夫決策過程,都是機器學習重要的觀念,有興趣的人可以參考〈知識力專家社群:機器學習(ML:Machine learning)〉。人工神經網路(ANN:Artificial Neural Network)人工神經網路(ANN)又稱為「類神經網路」,是一種模仿生物神經網路的結構和功能所產生的數學模型,用於對函式進行評估或近似運算,是目前人工智慧最常使用的一種「模型」。科學家模仿人類大腦的神經網路,提出了「赫布理論」(Hebbian theory),用來解釋學習過程中大腦神經元變化的神經科學理論,突觸上一個神經元向突觸下一個神經元持續重複的刺激,可以導致突觸傳遞效能的增加,也就是人工神經網路上的「權重」(Weight)。人類大腦的「神經元」(Neural),如下圖(a)所示,我們把人類大腦複雜的神經元簡化成一個圓圈和一個箭號,如下圖(b)所示,圓圈內的數字代表這個神經元的神經衝動強度,箭號旁的數字代表這個神經元突觸傳遞效能,也就是「權重」,則大腦內複雜的神經網路就可以簡化成人工神經網路,如下圖二(c)所示,一層層的連結起來,以手寫辨識數字為例,「輸入層」就是我們手寫的數字,「輸出層」就是辨識的結果數字 0~9。▲ 人工神經網路示意圖。【延伸閱讀】機器學習的單層感知器(SLP)與神經網路模型的計算方式,都是機器學習重要的觀念,有興趣的人可以參考〈知識力專家社群:人工神經網路(ANN:Artificial Neural Network)〉。符號與意義如果電腦可以自行分析資料找出特徵值,那就更接近我們想要的人工智慧,也就是人工創造出來可以思考的電腦。這個時候電腦能夠自己分析資料理解「有斑紋的馬」這個特徵,只要人類告訴電腦這個特徵所使用的符號叫「斑馬」,就把符號與它所代表的意義相互連結(接地)了!符號「貓」或「Cat」,意義是指尖耳朵、尖眼睛、長鬍子很可愛的一種動物,這些就是「特徵值」。人工智慧面臨許多問題就是因為電腦無法自行理解符號的「意義」,而最近發展的「深度學習」已經可以讓電腦自行分析資料找出「特徵值」。▲ 符號「貓」與「特徵值」示意圖。深度學習(Deep learning)深度學習(深度神經網路)是讓電腦可以自行分析資料找出「特徵值」,而不是由人類來決定特徵值,就好像電腦可以有「深度」的「學習」一樣。而深度學習使用多層神經網路,理論上隱藏層愈多自由度與精確度愈高,但是結果相反,因為誤差反向傳播(EBP)很難傳遞回更上一層的神經元,就好像主管經由員工提供的資訊進行判斷,正確的資訊是由下(員工)向上(主管)提供(反向傳播),而修正時由上(主管)向下(員工),當階層太多時效果不佳。因此深度學習不但使用多層神經網路,同時使用「自動編碼器」(Autoencoder)來進行「非監督式學習」(Un-supervised learning)。Google 貓臉辨識計畫Google 公司 2012 年做了一個實驗,由 YouTube 的影片中取出 1,000 萬張圖片,使用具有 100 億個神經元的深度學習神經網路,由 1,000 台電腦(16,000 個處理器),運算 3 天才完成。 將 1,000 萬張圖片輸入深度學習神經網路,經由數層神經網路使電腦自行學習找出「特徵值」而能夠辨識「對角斜線」,如下圖(a)所示。 再經由數層神經網路使電腦能夠辨識「人臉」,如下圖(b)所示,以及「貓臉」,如下圖(c)所示,形成抽象度愈高的「特徵值」,最後經由特徵值理解這個東西的「意義」。 此時只要我們告訴電腦具有下圖(b)這個特徵值的東西稱為「人」(符號);具有下圖(c)這個特徵值的東西稱為「貓」(符號),電腦就能夠將符號與意義產生連結了! 未來只要我們輸入其他照片,電腦就能夠自動判斷這個是人,那個是猫,這個學習的過程其實和人類學習過程是類似的。...