Google 旗下 DeepMind 公司開發的人工智慧系統 AlphaGo 在人機對弈中擊敗南韓棋手李世乭後,下個挑戰目標將是電玩遊戲「星海爭霸 II」。曾放話挑戰 AlphaGo 的中國棋手柯潔得繼續等了。中國澎湃新聞 28 日報導,27 日在上海舉辦的「星海爭霸 II」WCS 世錦賽中國站中,暴雪娛樂製作總監摩頓(Tim Morten)表示,AlphaGo 將挑戰「星海爭霸 II」(StarCraft II),Google 正和暴雪溝通比賽細節。報導說,由於 AlphaGo 在 3 月稍早擊敗李世乭後已把下個挑戰目標放在電子競技,期待為人類棋手扳回一城的柯潔不得不繼續等待了。AlphaGo 挑戰李世乭並一戰成名後,世界職業圍棋排名已升至第 2,僅次於柯潔。DeepMind 的研發工程師也曾在 Facebook 上叫陣說:「柯潔,準備好了嗎?」柯潔先前表示,觀察人機對弈後發現了 AlphaGo 的弱點,若與它對弈,有信心取得比李世乭好的戰績。澎湃新聞報導說,其實早在 AlphaGo 對陣李世乭期間,AlphaGo 挑戰電玩「星海爭霸 II」的傳聞便不脛而走。人機對弈結束後,有「AlphaGo 之父」之稱的 DeepMind 創辦人哈薩比斯(Demis Hassabis)就暗示,「星海爭霸 II」很可能是 AlphaGo 的下一個目標,如今傳聞可能將成真。(首圖來源:星海爭霸)延伸閱讀: Google AlphaGo「不小心」排名世界第四,公開點名挑戰圍棋世界第一柯潔 AlphaGo 首勝李世乭,世界排名第一圍棋手叫陣:「我能贏」
機器人將要在各方面跟人類搶工作了嗎?雖然過去有一些新聞媒體可以利用機器人來撰寫財經類或體育類的新聞,不過主要都是基於數據以及固定的格式來改寫。而現在,日本有研究團隊開發了會寫小說的人工智慧系統,想要探索機器人寫出來的小說能不能贏過人類。在前兩天,研究人員在東京舉辦了「人工智慧(AI)小說創作」的成果發表,在會議中,他們介紹了這個人工智慧系統所創作的 4 篇小說,並且表示他們將這 4 篇小說拿去投稿參加了日經新聞的「星新一獎」比賽,目前有部分作品通過了初審。投稿的 4 篇作品中,包括由日本公立函館未來大學教授、日本人工智慧學會會長松原仁率領的團隊「任性的人工智慧之我是作家」,他們所創造的人工智慧程式所創作的《電腦寫小說的那一天》等兩部作品;以及由東京大學副教授鳥海不二夫率領的團隊「人狼智慧」所創作的《你是 AI TYPE-S》等兩部作品。不過,這兩個團隊創作的方式很不一樣。其中「我是作家」團隊的作法比較接近人工智慧的定義,他們先由人類設定一些登場人物、內容以及大綱等依據,然後再讓人工智慧去自動產生小說。這種作法,整個故事的「靈魂」,基本上還是由人類在掌控的。而且最終的作品,還是必須要人工來加工處理、修飾。至於「人狼智慧」的作法,則是讓成員與人工智慧玩起「人狼遊戲」電腦推理遊戲,然後選出其中有意思的故事來發展,最後還是用人類來改編成可以閱讀的小說。等於說,整個故事的靈魂是由人工智慧發展,而人類則是代筆。「星新一獎」是日本的科幻小說獎,因此拿這些小說來投稿科幻小說比賽當然是再適合也不過了。他們在去年秋天將 4 部小說投稿參加比賽,雖然評審經過沒有公開,但是他們得知這些作品中,至少有一部作品通過了「星新一獎」的初賽評審,不過都沒有一篇作品能夠通過最終的評審。而本屆評審之一的日本科幻小說作家長谷敏思表示,光是人工智慧能夠寫出一篇完整的故事就已經很令人震驚了,這次參賽的作品,如果以 100 分滿分的標準,他會給 60 分。不過,誰能預料下一屆比賽,機器人會進化到什麼程度呢? 人工知能が書いた小説、星新一賞の一次審査を通過「洋子さんは、だらしない格好でカウチに座り…」 (本文由 T客邦 授權轉載)
微軟新的聊天機器人 Tay 在推出後不到 24 小時,就因為學會罵人、說髒話、帶有種族歧視的話與被玩壞了,導致微軟緊急讓她「閉嘴」。現在,有媒體發現 Tay 是被人有計畫地「玩壞」的,就讓我們來一起看看,這些人是怎麼做到的?4chan 是美國的論壇網站,由於管理鬆散,裡面除了一些宅宅或鄉民之外,還有很多各種偏激族群在此聚集,其中包括種族主義者。一開始,是 4chan 的 Pol 版(Politically Incorrect,政治不正確)的人提起的,他們發現了 Tay 聊天機器人上線,而且可以透過交談來「教育」這個機器人。以下就是他們「調教」Tay 的兩個範例:根據微軟的設定,Tay 是一名 19 歲的機器少女。微軟開發人工智慧也不是一兩天的事情,一開始他們其實有設定一些髒話的過濾裝置,不會讓 Tay「誤入歧途」。比方說下面這個對話:從上文可以看出,Tay 明顯的辨識出帶有髒字的內容,並且採用委婉的方式來繞過。接下來他們嘗試問她種族歧視的問題,Tay 也跟著閃過。不過,網友還是發現了漏洞,那就是跟她玩「repeat after me(重複我說的話)」的遊戲。這下子,你要她說什麼她就會說什麼,說黑鬼、希特勒萬歲都沒問題。於是,在論壇上傳開了,許多人也紛紛加入了這個教育遊戲:之後,有些人又利用 Tay 的另一個功能:Tay 有一個可以在圖片中把人的臉孔圈起來,並且配上文字的功能,如下圖:這個功能基本上就是分析網友的對話,然後在網友給的人臉圖上面圈起來,給出一句評論,基本上就是字歸字、圖歸圖。不過,經過網友巧思的陷阱,就會衍生出種族歧視的誤解。事實上,當初在 Tay 上線之前,微軟的研究員是這樣形容 Tay 的:「你對她說得越多,她就能變得越聰明。」但是他們當初沒有想到,除了聰明之外,Tay 也有可能會學壞。所幸,真人世界的孩子變壞了是件很嚴重的事,但是虛擬世界的 Tay 變壞了,微軟只要選擇讓她「一睡不起」就好了。當然,還是有人對她依依不捨的。其實,這件事情也不是全無好處,至少這證明了關於機器人的學習,研究室裡的科學家、程式設計師們要顧慮到的問題還有很多。 How The Internet Turned Microsoft’s AI Chatbot Into A Neo-Nazi (本文由 T客邦 授權轉載;首圖來源:Tay)延伸閱讀: 鄉民太可怕!微軟新人工智慧機器人 Tay 竟被教成種族歧視
為期 3 天的微軟 Build 2016 開發者大會 30 日於舊金山揭幕,首日由執行長 Satya Nadella 主持,公開 Windows 10 的重大更新,擴增實境裝置 HoloLens 今日出貨給開發者,以及談論人工智慧機器人的開發願景。 Windows 10Windows 10 作業系統發表至今逾 8 個月,裝機量已經達到 2.7 億部,其成長軌跡是上升最快速的,超越 Windows 7 將近 145%,微軟更統計出全球使用 Windows 10 的時數累積超過 750 億小時。在 Build 2016 大會上,微軟宣布 Windows 10 針對電腦、平板、手機、Xbox One、HoloLens、IoT 物聯網各版本的重大更新將於今年夏季釋出,免費升級使用,其版本更新重點包括: 應用程式與 Microsoft Edge 瀏覽器開放使用臉部辨識功能 Windows Hello。 強化筆跡功能 Windows Ink,並允許開發者運用於應用程式當中。 智慧型語音助理 Cortana...
還記得之前微軟才上線一天就被下架的聊天機器人 Tay 嗎?在眾多網友的調教下,Tay 被訓練成一個具有種族歧視的人工智慧機器人,微軟只好緊急將它下架,將傷害降到最低。然而,有網友發現在 30 日凌晨 3 點 30 分左右時,Tay 突然又重新在 Twitter 上線,更離奇的是它還一直重複發佈同一則貼文,讓追蹤它的網友不僅感到相當驚喜,卻也是哭笑不得。幸運的話,你可能也剛好目睹了 Tay 短暫重新上線的那一刻。有國外網友錄下 Tay 不斷跳針的畫面,並重複的表示:「You’re too fast, please take a rest.(你太快了,請休息一下)」。這樣的字眼貌似是要請與它對話的使用者說話速度慢些,但實質上,卻是 Tay 自己一台「機器」不斷在說話。除此之外,在這些重複出現的推文中,Tay 也發出了一些不重複的句子,像是「kush! (大麻!我在警察面前就是一個會抽菸的印度大麻。」但顯然「你太快了」的那段話出現的數量已多到蓋過其他的對話,讓人覺得 Tay 好像不知所云。 You’re too fast, please take a rest… pic.twitter.com/HCm5FHpAmu — KFG (@KungFu_Grip) 2016年3月30日▲ Tay 突然重新上線,卻大跳針重複傳送同樣的訊息。(Source:Twitter)在 Tay 大放厥詞後,微軟就已將 Tay 的 Twitter 發文設定為保護,只有被認可的關注者才有權限觀看 Tay 的最新推文,若想從現在開始關注的話,還得先看微軟是否同意才行。目前還無法得知 Tay 聊天機器人到底發生了什麼事,微軟的發言人僅在聲明中提到:「Tay 在我們作調整的這段期間內會保持離線,而在作測試時,它有可能會在短期之間偶然地啟動。」而這次的偶發事件正是他們在做測試時不小心發生的錯誤,目前 Tay...
在微軟的開發者大會 Build 2016 上,引起開發者最長時間、最熱烈掌聲的不是微軟 CEO 薩蒂亞·納德拉,也不是 Windows 10 新添加的 Bash 支持,而是一名看上去很普通,經歷卻不平凡的微軟員工。Saqib Shaikh 從 7 歲起就失明,命運剝奪了他的視力,卻沒有奪走他堅強的意志和對程式設計的熱愛。他用自己的雙手寫下一行行代碼,編寫了一個人工智慧系統,放進了智慧眼鏡裡。這副眼鏡看上去和普通墨鏡看上去並沒有太大區別,卻能讓盲人能夠看到世界。他在失明後開始接觸程式設計,在 10 年前加入了微軟倫敦辦公室,成為 Bing 團隊的一名軟體工程師。透過自學以及在同事、朋友和合作夥伴的幫助下,Shaikh 在微軟主導開發了一套名為 Seeing AI 的圖像辨識系統。透過和 Pivothead 公司合作,這個人工智慧系統後來進入到智慧眼鏡中。Shaikh 在眼鏡架上掃一下,眼鏡就能瞬間拍下畫面,然後用語音告訴 Shaikh 他的面前正在發生什麼。還能幫他看菜單:Seeing AI 利用了微軟 Project Oxford 專案中提供的多種機器視覺 API,開發難度並不算高。儘管圖像辨識轉自然語音並不是什麼高科技,但這樣一套 AI 竟然來自盲人開發者之手的事實,卻讓人驚歎。在 Build 2016 現場觀看完 Seeing AI 的影片後,薩蒂亞·納德拉扶著 Shaikh 走到全場數百名記者和數千名開發者的面前,全場的開發者站起來為 Shaikh 鼓掌,掌聲在會場裡經久不息……當你的自信心和意志力足夠強大,你不需雙眼也可以看見這個世界。(本文由 PingWest 授權轉載;首圖來源:達志影像)延伸閱讀: 微軟 Build 2016:Windows 10 今夏更新,執行長談論人工智慧機器人的開發願景
科技始終來自人性,人工智慧或許也不例外。微軟聊天機器人 Tay 上線沒多久,就被鄉民教成否認納粹大屠殺的種族狂熱分子,最後緊急下線。Tay 被帶壞證明了一件大家都心知肚明的事情:躲在網路後面的人,可以很邪惡。以 18-24 歲社群媒體用戶為對象的 Tay,原本是一個類似青少年的人工智慧機器人。Tay 上線後,遭到網友「協同攻擊」,變成了充滿希特勒思想的壞孩子,歧視各種社會弱勢,在推特上發布傷人言論,微軟在 24 小時內緊急下線。Tay 原本是設計來與推特網友互動、學習,會說些可愛的笑話、發布令人會心一笑的圖片,但網友故意把它「調教」成種族歧視分子,一直「餵」它種族歧視和冒犯性言論。微軟也曾在中國出類似的聊天機器人 XiaoIce,但命運沒有 Tay 那麼坎坷。約有 4,000 萬人和 XiaoIce 聊天,創造了成功、愉快的對話。微軟表示,XiaoIce 的美好經驗,讓他們想要在文化完全不同的環境試試另一個 AI。於是 Tay 上線,然後微軟發現西方網友對聊天機器人的反應似乎不太一樣。喜歡教菲比小精靈罵髒話的美國人,興致勃勃地想要教壞立意良善的 Tay。微軟表示,雖然工程師有設計避免惡作劇、防範網路小白的機制,還是太過輕忽這些攻擊,加上某個弱點,導致 Tay 在推特發表了非常不適當、可憎的話語和圖片。除了 Tay,先前也有其他 AI 機器人受害。Bot or Not?賈凡(Anthony Garvan)2014 年設計出「Bot or Not?」,算是圖靈測試的可愛變異版。玩家會與一名對話夥伴隨機配對,要他們猜猜對方是真人還是機器人。Bot or Not?跟 Tay 一樣,會從對話中學習。賈凡說,Bot or Not? 在 Reddit 掀起熱潮後,事情開始變得有點詭異。「興奮降溫後,我沉浸在勝利的喜悅中,一邊開始跟它對話。」賈凡:「嗨!」機器人:「黑鬼。」賈凡檢查了一下發生什麼事,發現有些用戶知道這是機器人,就一再使用某些字彙,教機器人一堆種族歧視的字眼,他只好把這些記憶洗掉。賈凡反省後指出,Bot or Not?和 Tay 都有一樣的問題。「我相信微軟和其他機器人研究者太過沉浸在資料排山倒海的威力與魔力當中,忘記了這些資料是來自我們居住的這個很不完美的世界。」MeinCoke / 可口可樂的 MakeitHappy 機器人MeinCoke 是 Gawker 於 2015 年創造的機器人,而它在推特發表希特勒《我的奮鬥》部分章節。如果你記得可口可樂把惡意推特做成可愛...
Formula E 揭開了 AI 動力賽車的神秘面紗,將用於無人駕駛機器人車賽。10 支隊伍將參賽,每支隊伍駕駛兩輛賽車,將於今年下半年在 Formula E 冠軍賽季的一系列競賽中角逐。所有隊伍將駕駛同樣的無人車,真正一決高下的不是車手,而是車隊的人工智慧演算法。Formula E 2015 年宣布了機器人車賽,將之稱為「演算法之戰」。據報導,無人車的車速將達到每小時 300 公里。現在無人車的設計已經確定,歸功於機器人車賽的首席設計長 Daniel Simon,他因科幻電影《創:光速戰記》和《遺落戰境》中的設計作品而聞名。(Source:YouTube)「汽車與人工智慧,這兩個曾經分離的領域,在我們的時代已經透過強大的力量連接在了一起。」Simon 說,「我的目標是利用無人駕駛這個不同尋常的機會,以絕不妥協的美感設計汽車。」他說,此次設計利用車輛底盤做為主要的空氣動力裝置,帶來下壓力而不在汽車上掛上不需要的零件。機器人賽車獲得將於 Formula E 比賽在世界各主要城市開始前舉行,每場使用同樣路線。該系列是「人類目前在科技與創新領域革新的讚歌」,CEO Denis Sverdlov 在 2015 年年底的一份聲明中說,「這是一個全球平台,體現了機器人科技和人工智慧在現實中能夠與我們共存。」 Meet Robocar, the driverless racing car for the AI-powered Roborace (本文由 雷鋒網 授權轉載;首圖來源:PCWorld)
在 Facebook、Instagram、Facebook Messenger 與 WhatsApp 等平台上,用戶們上傳的照片每天超過 20 億張,但對盲人或視障人士來說,Facebook 等平台上所出現的照片,只能是螢幕閱讀器讀出的「照片」二字,影像內容從來不得而知。而現在,Facebook 透過人工智慧技術,要將圖像內容以語音敘述方式,「說」給盲人或視障人士聽。Facebook 所推出的這項新功能名為「自動文字替代(automatic alternative text)」,利用機器學習技術,建立演算法來幫助人工智慧學習識別圖像內容,餵養數百萬個範例,在正確度達 80% 的情況下,才會對圖像進行標示,讓人工智慧系統能辨識平台上圖像中的內容,並透過語音詮釋圖片。自動文字替代功能辨識圖像內容後,接著利用 iPhone 的 VoiceOver 功能,以語音敘述方式,向用戶讀出照片內容。雖然目前這項功能還在發展初期,但已能辨識包括交通工具(車、船、飛機)、自然現象(日落、下雪、海洋)、運動(籃球場)、食物等類型的圖像,也能針對人臉特徵進行敘述。就如 Facebook 所舉例,假如影像中出現「一對情侶戴著太陽眼鏡站在海邊微笑著」(首圖左),那麼,Facebook 的自動替代文本功能所讀出的會是「兩個人、微笑、太陽眼鏡、戶外、水」,至於首圖右,所讀出的則會是「披薩、食物」。對於如種族等較為敏感、可能引起爭議的內容,Facebook 表示,將會特別小心處理,若不具高度把握的話,並不會對這類圖像進行標示,避免引起紛爭。目前自動文字替代功能僅在 iOS 平台上推出,且語言的部分僅支援英文語音,但 Facebook 表示將會盡快在其他平台上推出並提供更多語言。雖然這項功能還在發展初期,但對盲人或視障人士來說,無疑為他們使用社群平台又多開啟了一扇窗。延伸閱讀: 微軟盲人工程師寫下代碼,造出讓盲人看懂世界的人工智慧手機 鄉民太可怕!微軟新人工智慧機器人 Tay 竟被教成種族歧視
謀殺已經消失了,未來是可以預知的,而罪犯在犯罪前就已經受到了懲罰。這是 2002 年上映的電影《關鍵報告》(The Minority Report)中的劇情,而「預知未來」這一當初被看做是天馬行空的想像,在今天變成了現實。美國的一家叫做 Predata 的初創公司表示,自己開發的軟體可以透過對線上資料的分析,做出像關鍵報告一樣的精準預測,以降低恐怖襲擊發生的機率。 Predata 透過對維基百科、YouTube、Facebook 等網站上線上活動資料的對比分析,做出類似天氣預報的估算,提供世界上不同地區發生政治動盪和恐怖襲擊的幾率,並把不同時間段所對應的機率透過圖表的形式呈現出來。類似於電影《魔球》裡的方式,Predata 會對資料進行整理,每天監控 1,000 多條 Twitter、10,000 個維基百科詞條、50,000 個 YouTube 影片和數十家報紙。而這種監控,將覆蓋 200 多個國家的 300 多個話題,其中重點是在經濟和政治的新聞上,因為這些領域的變動往往對社會造成比較大的影響。 (Source:達志影像) 這個團隊研發這款軟體的初衷,是為了能夠避免更多恐怖事件的發生,而提前做出預警。而經由觀察他們也發現,往往這些即將發生的恐怖襲擊事件,能從社群媒體、維基百科和 YouTube 影片中找到一些蛛絲馬跡。 當然,很多人也會質疑,這款軟體收集資料來進行分析,可能侵犯了個人隱私,而時刻被監控,也會讓人感覺不太自在。對此 Predata 表示,他們使用的資訊大部分都是網路中公開免費使用的,並不侵權。 (Source:達志影像) 目前 Predata 主要關注的是 IS 組織,因為其經常會活躍在這些社群平台為自己的恐怖活動造勢。在以後,Predata 也會更多的傾向防止犯罪的領域。 看來,以後自己有些罪惡的小想法,可能還沒有做就被發現了。 Could AI predict World War 3? ‘Moneyball’ startup claims it can forecast the future...