西北大學醫學院布魯姆(Bluhm)心血管研究所宣布,將在 Eko 心臟監測平台的一項新研究率先使用人工智慧演算法篩檢心雜音。研究旨在證明 Eko 的數位聽診器和 AI 演算法可準確解釋心音,幫助醫護人員用數位聽診器篩檢病理性心雜音和瓣膜性心臟病。80% 常見心臟問題被誤診心雜音(cardiac murmur)是指心音和其餘心音之外,由心室壁、瓣膜或血管壁振動所致持續時間較長的不規則聲音,性質特異,可與心音完全分開,亦可與心音相連。心雜音對某些心臟病的診斷有重要的價值。心雜音偵測通常使用聽診器,成本低、效率高,一直是心臟病篩檢的常用方法。但由於疾病特徴與人工誤差,醫療業界有人表示傳統聽診器並不適合偵測心病。據 Digital Healthch 報導,心臟病專家可使用聽診器有效診斷 90% 心臟疾病。但同時,《美國醫學會》(American Medical Association)雜誌一項研究顯示,內科和家庭執業醫師會誤診約 80% 常見心臟問題。西北大學醫學院的研究人員認為,「心雜音偵測需要依靠『訓練有素』的耳朵,才能將細微的異常與正常聲音分開」。AI 偵測心雜音為了幫助臨床醫生更準確篩選心雜音,布魯姆心血管研究所和美國新創 Eko 計劃推出新臨床研究。美國西北大學醫學院是美國最頂尖研究型醫學院之一,透過與人工智慧企業合作開發新產品,並開設應用科學院人工智慧碩士課程,培養心血管領域醫生。布魯姆心血管研究所是西北醫學保健系統的一部分,在芝加哥等地區有多個護理點。Eko 是美國一家新創公司,CORE 智慧聽診器能幫助心臟科醫生以行動裝置檢視病人心電圖,並記錄心跳聲。另一款心臟監測裝置 Eko Duo 供心臟病患者使用,讓心臟科醫生可依據心臟聲音資料,遠端精準掌握病人的心臟情況。目前兩款產品均拿到美國 FDA 的 510K 批准。此次 AI 篩檢心雜音研究由 Eko 資助,計劃招募 1 千名患者,800 名來自西北大學布魯姆心血管研究所。演算法將與 Eko 公司電子聽診器 Eko CORE 和便攜式手持裝置 Eko Duo 裝置結合,幫助臨床醫生更準確篩選心雜音。「醫療保健領域最大的問題之一是全科醫生常會錯過心雜音,」Eko 首席執行長 Connor Landgraf 說,「西北大學以在心臟瓣膜疾病方面的工作而聞名,我們正在共同開發人工智慧技術,此技術可透過心臟病專家的敏感性,偵測出兩種最常見的瓣膜疾病。」(本文由 雷鋒網 授權轉載;首圖來源:Eko)
據外媒 Healthcare 報導,克里夫蘭醫學中心創建了一個新的人工智慧中心,將在醫療保健領域推進 AI 和機器學習的推進和應用。 據了解,臨床人工智慧中心是克里夫蘭臨床企業分析中心的一個計畫,它將尋求人工智慧在診斷、疾病預測和治療規劃方面創新的應用。相關人員表示,該人工智慧中心將召集來自 IT、遺傳學、實驗室、腫瘤學、病理學、放射學等部門的專家,旨在促進醫生、研究人員和資料科學家之間溝通和協作,依託人工智慧機器學習技術,使整個醫療衛生系統逐漸獲得巨大吸引力。目前,該中心的研究人員已經在開發新的機器學習模型,以獲得更精確的臨床決策支援、品質改進、對住院時間和再入院風險的預測以及其他使用案例。其他專注於腫瘤學的舉措也在進行中,例如,探索人工智慧如何能夠實現個性化的結果預測,或提高病理切片中電腦輔助檢測的準確性。被任命為 CCAI(雲端運算輔助教學)主任、克里夫蘭醫學中心人工智慧副醫學主任 Aziz Nazha 博士說,「新的臨床人工智慧中心的目標是將人工智慧的概念轉化為臨床工具,以改善患者護理程序和促進醫學研究」。改善患者醫療保健體驗克里夫蘭醫學中心創辦於 1921 年,是一所集臨床治療、病人護理、研究和教育為一體的非盈利性多專科學術醫療中心。據了解,該中心的心臟和血管中心是全球大型、具有豐富經驗的心血管專科醫院之一。在 2017-2018 年度全美最佳醫院排名中,克里夫蘭醫學中心僅次於梅奧醫學中心,綜合排名位列全美第二。目前克里夫蘭醫學中心的本部擁有多達數十個科室中心,包含癌症中心 / Taussig 癌症研究所、試管生育中心、移植中心等,多達 1,400 多個床位,整個醫院體系共擁有 4,400 個床位,它是美國超大型、享有盛譽的醫院之一。在今年 2 月舉行的 HIMSS19 大會上,克里夫蘭醫學中心副首席體驗長蘇珊娜‧羅斯表示,在醫療保健領域,人工智慧應用程式擁有巨大的潛力。另外,必要的監測措施可以使人工智慧在醫療保健系統中更好地傳播。羅斯認為,隨著人工智慧技術的不斷發展,消費者、醫務人員及患者已經獲得巨大的利益。人工智慧可以自動化人類繁瑣重複的工作,未來會真正改善患者醫療保健體驗。(本文由 雷鋒網 授權轉載;首圖來源:Flickr/Warren LeMay CC BY 2.0)
OpenAI 是一個非盈利性的 AI 組織,他們僱用了許多一流的研究和開發人員,在機器學習理論和深度學習應用方面多有諸多成果。 ▲ OpenAI 用強化學習訓練機器手臂。在近幾年的科研中,OpenAI 明顯嘗到了大規模計算能力的甜頭。5v5 DOTA AI「OpenAI Five」和自動生成人類水準文本的 GPT-2 優異表現背後,演算法設計方面的創新並不多,更重要的是大規模計算能力。而 OpenAI 也決定在這個方向上走得更快、更遠一些,OpenAI 打算未來幾年在大規模雲端計算方面投入數十億美元、吸引並留住更多優秀的 AI 人才,甚至建造 AI 超級電腦。目標相當宏偉,可是這些錢要去哪裡找呢?他們的答案是,重組 OpenAI,吸引更多投資。新的 OpenAI 長什麼樣子?OpenAI 在創立之初就確定了自己的科研使命是確保通用人工智慧(AGI)能夠造福全人類,主要方式是嘗試建造安全的通用人工智慧,並和全世界分享它帶來的好處。抱著這樣的願景成立的非盈利組織 OpenAI 能自由地追尋自己的使命,但同時它吸引投資、獲得利潤的能力自然先天不足。OpenAI 在部落格中寫道,「我們希望增加我們獲得投資的能力,但同時還要保持我們的使命不受干擾。然而據我們了解,目前並沒有什麼合法的公司結構可以達到我們想要的平衡。我們想到的辦法是創建一個新公司 OpenAI LP(有限公司),它將是盈利性和非盈利性的混合。我們把它稱為『有上限的盈利公司』。」OpenAI 未來將包含兩部分,盈利性部分(「OpenAI 有限公司」)和非盈利性部分(「OpenAI 非盈利」)。在他們的設計中,投資人和絕大多數員工都將屬於盈利性的部分,並正常進行科研工作;當 OpenAI 沿著原有使命取得階段性科研成果、帶來利潤回報的時候(如果獲得利潤回報的話),員工和投資人可以像正常的初創企業一樣分享這些回報。可以預期一些回報,便於 OpenAI 獲得投資、吸引高水平人才。但同時,他們會為科研成果帶來的利潤回報設定一個上限,超過這個上限的部分將不參與盈利性部分的分配,而轉交給原本的 OpenAI 非營利性部分(首輪投資人的回報上限設定為投資額的一百倍,未來可能會降低一些)。「OpenAI 有限公司」的實際控制權將屬於「OpenAI 非盈利」的董事會,以及只有一小部分的董事會成員可以持有未來 OpenAI 的股份,而且,當 OpenAI 有限公司的投資人和員工的利益與 OpenAI 非盈利的使命發生衝突需要投票的時候,只有不持有股份的董事會成員可以參與投票。(Source:OpenAI)在所有的員工和投資人合約第一頁都有這樣一個紫色警示框,內容大意是:OpenAI 有限公司的目標是推進 OpenAI 開發安全的通用人工智慧,並造福全人類的使命。OpenAI 非盈利的職責以及 OpenAI 綱領中提出的條款優先於獲得利潤。OpenAI 有限公司有可能永遠無法獲得利潤,OpenAI 非盈利也沒有義務讓它產生利潤。OpenAI 非盈利重新投資公司實體以及 OpenAI...
隨著人口老化愈來愈嚴重,阿茲海默症也深深影響老年人的晚年生活。如今,IBM Research 發現可以透過機器學習,以血液測試病人體內澱粉樣蛋白 β 的濃度,進而及早發現相關問題,讓醫生可以及早進行治療及提供照顧建議。根據一項早於 2017 發表的研究,醫學界已知道在阿茲海默症患者發病前數十年,脊髓液中的澱粉樣蛋白 β 濃度已開始出現變化。當中濃度出現變化及帶有輕微認知障礙的病人,最後發展成阿茲海默症的機會率比一般人高 1.5 倍。而透過 IBM 的新技術,醫生可以透過血液測試估算脊髓液的有關蛋白質濃度。雖然透過 AI 進行估算,測試結果無法像直接抽取脊髓液一樣準確,但最高已可達到 77% 的準確率。而且成本及對病人的負擔比直抽取脊髓液更低,十分適合用於早期發病的病人身上。而 IBM 也表示,這是他們首次將有關系統應用在專業用途之上,未來也希望與其他科學家合作,幫助開發真正的治療方法。 Using Machine Learning to Develop Blood Test For Key Alzheimer’s Biomarker (本文由 Unwire HK 授權轉載;首圖來源:shutterstock)延伸閱讀: 一夜沒睡好,大腦有毒蛋白就激增 50%:失眠可能促阿茲海默症進程 解開阿茲海默症之謎,牙周病細菌也是肇因 新技術掃描眼睛數秒鐘,可揪出早期阿茲海默症延緩記憶退化
據美國國家電視網《NBC》的報導,藍色巨人 IBM 在未經當事人許可的情況下,從網路圖庫 Flickr 上獲得了接近 100 萬張照片,藉此訓練人工智慧的人臉辨識程式,並與外部研究人員分享。根據報導指出,針對 IBM 所獲得的 100 萬張照片,雖然攝影師可能獲准拍攝照片當中的人物,但是這些人並不知道自己的照片被用於訓練人臉辨識程式。根據一位攝影師對《NBC》表示,「我拍攝的人沒有一個知道他們的照片用於這種用途」。報導進一步表示,這些照片最初並不是 IBM 匯整的,而是由 Flickr 的前東家──雅虎匯整,以供研究之用。所有照片都按照創作共用協議分享,可以在一定限制條件下自由使用。雖然有相關的規定,但是用於人工智慧訓練人臉辨識可能並不符合規定,而且,IBM 之前曾經開發過一款影像分析產品,可以使用人體攝影機來判斷人類的種族,但該公司否認藉此進行種族歸檔。事實上,IBM 最初的用意是為了避免人工智慧對某些群體產生偏見,但無論如何,一般人的確很難了解自己的照片是否包含在訓練資料庫中,也很難要求 IBM 刪除,因為 IBM 將這個資料庫設為私人,只允許進行學術或企業研究時使用。對此,IBM 表示,公司非常重視隱私,而且努力遵守隱私原則。而該資料庫只允許獲得認證的研究人員使用,而且只包含公開的圖片,人們可以要求刪除自己的照片。不過,IBM 並非第一家在沒有經過許可的情況下使用普通人的照片進行人工智慧辨識訓練的公司,之前 Facebook 就曾經提供 80 萬張人臉照片給研究人員下載而引起爭議。(首圖資源:Flickr/Open Grid Scheduler / Gri CC BY 2.0)
最新統計發現,中國人工智慧(AI)研究的影響力,正在快速趕上美國,顯示這個被川普政府視為關鍵的領域,受到中國嚴重挑戰。《連線》雜誌(WIRED.com)、華爾街日報報導,西雅圖非營利組織艾倫人工智慧研究所(Allen Institute for Artificial Intelligence)13 日發表最新報告指出,在統計了截至 2018 年為止出版的 200 萬份論文後發現,前 10% 最常被引述的 AI 研究中,26% 來自中國,僅 29% 來自美國。在 1982 年,最常被引述的 AI 研究中,多達 47% 來自美國。事實上,史丹佛大學追蹤 AI 數據的「Artificial Intelligence Index」(人工智慧指數)去年就發現,中國每年發表的論文數量已經遠遠超越美國。指數並顯示,中國政府大量資助 AI 研究,2007~2017 年間,有政府贊助的 AI 論文數量成長了 400%,遠高於中國企業實驗室。相較之下,美國則是由 Alphabet 等業者扮演要角,由企業出版的 AI 研究數量,是中國的 7 倍之多。艾倫人工智慧研究所所長 Oren Etzioni 說,前 10%、甚至是前 1% 最常被引述的 AI 研究裡,中國追趕美國的進度令人吃驚,若依照這個速度,預估 2020 年前 10% 最常被引述的 AI 研究,將由中國奪冠,而前 1% 則會在...
以往由眼科醫師操刀檢查糖尿病患視網膜的工作,未來可望交給人工智慧(AI)來做。工研院開發人工智慧技術,協助新陳代謝科等醫師判讀糖尿病視網膜病變程度,協助病患控制病情。工研院 3 月 14 日舉辦「AI 大未來:技術與應用交流會」,工研院發表開發的人工智慧技術,在「智慧製造」、「智慧醫養」、「智慧商務」、「無人經濟」4 大領域應用所帶來的智慧革命。其中最值得一提的是「智慧醫養」領域中,工研院開發「糖尿病視網膜病變診斷輔助分析技術」,這是國際上目前唯一可偵測 4 種主要的病徵,並且清楚標示位置的 AI 判讀技術,可有效輔助醫師判讀病變嚴重程度。工研院巨資中心智慧應用技術組技術副理李雅文表示,台灣糖尿病患約 200 萬人,但眼科醫師僅 1,800 人,明顯不夠,若是能用人工智慧幫助新陳代謝科、家醫科和內科的醫師,找出潛在的糖尿病患,判讀視網膜病變的程度,可以更早發現後治療,協助控制病情避免惡化。李雅文指出,工研院與醫學中心合作,取得 30 多萬張眼底鏡的影像,並動員醫學中心、開業的眼科醫師來幫忙判讀並註記這些影像屬視網膜病變病程中的某一期,然後再大量輸入電腦,讓人工智慧程式學習判讀,並以病變5種程度來分類,輔助非眼科的醫師做好初期分級。李雅文說,由於人工智慧輔助判讀糖尿病視網膜病變屬第 2 類醫材,還需要臨床實驗,併同相關文件送衛福部食藥署審查後發給證照才能上市,前後估計約一年時間,目前工研院已和國內兩家軟體廠商洽談技轉中。工研院透露,利用人工智慧協助醫師判讀診斷病情的大計畫,正擴展到 T 細胞製程培育、新藥開發、大腸癌診斷、遠距醫療等領域。(作者:韋樞;首圖來源:shutterstock)
智慧語音助理的聲音,除了預設的女聲和可選的男聲,現在有了新選擇。世界第一個無性別的智慧語音助理最近誕生了,名字叫 Q。它的嗓音不是女聲也不是男聲,有時會覺得是男聲,有時又覺得是女聲,感覺相當奇妙,且音色讓人聽來很舒服。可至官網聽聽 Q 的自我介紹。Q 的誕生是為了終結目前人工智慧助理的性別刻板印象,由多個組織共同推動完成,包括丹麥多元文化組織「Copenhagen Pride」、青年文化媒體 Vice 旗下的創意服務機構 Virtue Worldwide、致力消除人工智慧無意識偏見的 Equal AI、數位創意工作室 Koalition Interactive,以及音響設計工作室 thirtysoundsgood。哥本哈根大學語言學家和研究人員採集了 5 人的聲音合成、調校,最後匯出一道聲源。聲源發表前在歐洲經 4,600 人評分,從 1 到 5,代表偏男聲到偏女聲,最後才得到性別中立的聲音,參數為 145 赫茲。Q 的創造者認為,科技公司通常將人工智慧助理預設設定為女性,或可選男性聲音,這做法只加強用戶的性別二元對立認知,也就是讓用戶覺得世上只有女性或男性這兩種性別。事實上,一些群體不是傳統意義的女性或男性,隨著他/她們逐漸被社會認可,大眾認知的性別二元對立也慢慢被打破。Q 代表更包容的聲音和技術,性別認知也應該是技術開發者和科技公司未來要考量的因素。不過 Q 目前只是聲音,並非人工智慧框架。Q 的創造者希望它能讓正在開發和推廣人工智慧語音助理的科技公司,意識到產品的侷限性。各類語音助理聲音的背後,潛藏著人們無意識的性別刻板印象,同時也加深大眾性別認知的刻板印象。從蘋果 Siri、微軟 Cortana、亞馬遜 Alexa、Google Assistant,到小米的小愛同學、阿里天貓精靈,智慧助理一開啟總是預設女聲。這些女聲播報總給人可愛、溫柔、樂於助人的感覺。智慧助理擬人化的過程中,目標是成為忠誠執行工作的助理,它們不求回報地幫你查天氣,開關智慧家電,甚至不要求你說「謝謝」。相比之下,預設使用男聲的場景,通常帶有權威、警示,比如銀行或保險應用。電影《流浪地球》太空站的人工智慧 MOSS 就是男聲,它能以聯合政府的名義全球廣播,也能控制整個太空站的電腦。語音是下一時代的互動方式,在在影響我們的認知和行為。世界是多元的,技術驅動的語音助理,也應該是多元的。(本文由 愛范兒 授權轉載;首圖來源:shutterstock)延伸閱讀: 對語音助理好一點!當你用「請」或「謝謝」下指令,它也會比較有禮貌地回應你 為什麼語音助理只有女性的聲音? Google、Amazon 給你更多選擇 語音助理偏愛女聲男聲?真相背後藏玄機
憤怒、厭惡、恐懼、快樂、悲傷、驚訝……你臉上的表情,現在正變成「情緒經濟」。當你疲勞駕駛,失神或焦躁情緒將被車子辨識警告;用平板學習時有困難,平板會讀取你「困惑」的情緒,並放慢教學速度;當賣出一個商品,你可以透過消費者臉部情緒快速評估產品的效果……《衛報》稱,「AI 臉部辨識情緒」已成為規模 200 億美元(約台幣 6,210 億元)的業產,且還在擴充。早在 2009 年,第一家經營「人工情緒智慧」的公司 Affective 就已經將情緒檢測技術當成市場研究產品出售。包括檢測機械員工損傷、影像遊戲用戶體驗、協助醫護人員評估患者健康等各行各業,圍繞它的領域都在持續增長,亞馬遜、微軟和 IBM 也將「情緒分析」當成臉部辨識產品的主要功能去宣傳。Affective 創始人 Kaliouby 預測,不久的將來,當這項技術無處不在、並融入所有裝置時,能「利用我們的內心、潛意識瞬間反應」。冰冷的機器如何辨識人類情緒?目前,情緒檢測主要透過兩種技術,一是電腦視覺,精確辨識臉部表情,二是機器深度學習技術,分析和解釋臉部特徵的情緒內容。身為最早由「情緒經濟」獲利的公司,Affectiva 的核心技術是名叫 Affdex 的情感引擎。Affdex 啟動後,鏡頭會鎖定人臉,透過觀察表情的紋理、肌肉和變化,「編碼」人類五官的特徵點,並和圖像資料庫比對,進而確認你的情緒並回應。Affectiva 的網站擁有世界最大的情感資料儲存庫,這也是情緒檢測進展快速的原因。這些數據大部分都是從人們收看電視或每天開車上下班的選擇性錄影去收集,涵蓋 87 個國家不同年齡、性別、種族的超過 750 萬張臉孔。當收集到人們影像後,Affective 辦公室的 35 名「標記人員」會分類,例如人們表現出低垂的眉毛、緊繃的嘴唇和凸起的眼睛,就會貼上「憤怒」。這些被標記的人類情緒數據用來訓練 Affective 的演算法。當「快樂」、「憤怒」、「悲傷」等標籤的臉譜圖成千上萬,Affective 也就能將情緒辨識和聯繫處理得越來越精準,甚至能判斷你是否隱藏情緒。這種標記方法被很多情緒檢測業的人認為是檢測情緒的黃金標準,這來源於「情緒臉部動作編碼系統 Emfacs」,整個 20 世紀下半葉都視為經典的情緒理論,使用在美國中情局、聯邦調查局、海關、邊境保護等地方。美劇《謊言終結者》透過人臉表情來探測案件真相的靈感也來源於此。但就像所有新技術都有兩面性,情緒檢測,同樣也面臨爭議和質疑。讀懂情緒不簡單強烈而持久的反面聲音是美國東北大學的心理學教授 Lisa Feldman Barrett 提出。她表示,「提供人們選定的情緒標籤,會在無意中引導人們表現出相對應的表情」,因為「固定的標籤」幾乎和「刻板印象」畫上等號。通俗點說,標籤化的情緒就像 emoji 表情。有公司甚至表示能透過這種標籤化辨識,判斷出對方是不是戀童癖、恐怖分子,還能從臉發現對方是否想進行性行為。最近還有一項研究表明,情緒辨識會產生種族歧視,且去年就有研究顯示情緒檢測技術時,黑人的負面情緒比白人多,情緒辨識也被認為「有偏見的缺陷」。Barrett 和一組同事重新測試驗證。測試過程中他們不提供情緒標籤,而是讓測試者看到圖像時自由描述圖像的情緒,發現特定臉部表情和特定情緒之間的相關性直線下降。後來 Barrett 在她的書《情緒是如何產生的:大腦的祕密生活》闡述自己的情緒理論。她認為大腦沒有外部刺激觸發的普遍情緒,每次情緒體驗都是由內部更基本的部分構成。(情緒)是人類身體物理特性的結合,靈活的大腦將它們連接到自身所處的任何環境,根據每個人的文化水準和成長環境都會有所不同。情緒豐富且複雜。所以將臉部表情直接映射到所有文化和背景的情感都沒有意義,一個人可能生氣時皺眉,另一個人可能在謀害對手時禮貌微笑;一個人可能喜歡受挫時得到暖心的勵志談話,另一個人也可能希望有個能怒吼的地方發洩。Barrett 表示:評估情緒最好理解為動態實踐,這涉及自動認知過程,人與人之間的互動,個人經驗和文化能力。Affective 創始人Kaliouby 也同意這個說法,並不斷改善數據的多樣性,用影像、語音、步態及更多微小變化來達到更準確的結果。畢竟像「情緒」這貫穿人們每時每刻生活的東西,如果不準確的分析在社會、工作時採用,並讓人們得到惡劣結果,短期是一時不公平的物質傷害,長期則足以積累影響整個人生。技術確實能讓生活變得更好,但在真實生活面前,依然是滄海一粟;不過更嚴謹的情緒檢測技術依然值得期待。(本文由 愛范兒 授權轉載;首圖來源:pixabay)延伸閱讀: 撲克臉終結時代將臨?感測技術下真實情緒無所遁形
你有沒有想過這樣的問題:Alexa、Siri、Cortana(小娜)、Google Assistant 等虛擬語音助理,為何性別設定都是女的?在西南偏南大會,幾位從事對話人工智慧(conversational AI)行業的女性專家表示,這當中既有偏見,又有道理。偏見指的是,當一個助理和你對話,大部分人會更習慣助理性別是女的。因為人們期待「她」比男助理更順從、體貼。至於道理部分,基於社會學和語言學的研究發現,說話時男性普遍更直接,女性普遍更婉轉;男性普遍更武斷(assertive),女性普遍更配合(supportive)。多年以來,對同一種語言,男人和女人普遍形成風格迥異的運用方式。從某種程度上講,最初也是因為偏見逐漸積累,形成長期的結構性差異。虛擬助理性別採用女性,就符合這種差異。偏見(bias),更具體來說,聊天機器人等對話式 AI 的偏見問題,是西南偏南大會(South by Southwest,簡稱 SXSW)本場論壇的切入點。除了性別之外,在虛擬語音助理和聊天機器人身上所能找到的偏見,還有許多種類。比如種族歧視、基於政治立場的偏見等。專家指出,無論哪種偏見,幾乎都是人自己偏見的映射。IBM 華生人工智慧首席產品經理阿娜米塔‧古哈(Anamita Guha)舉例,「如果你一直用叫喊的方式訓練人工智慧,那麼學到的只會是叫喊。」科技公司 Pandorabot 創始人兼 CEO 羅倫‧坤澤(Lauren Kunze)認為,微軟早年的英語聊天機器人 Tay,就是一個人類偏見投射到聊天機器人最典型的案例。Tay 和微軟小冰有點類似,是一個話題不限制的閒聊式機器人。Tay 採用無監督學習的方式,有一天突然被微軟的工程師上線到 Twitter,任何人都可跟它對話,教它東西──結果幾天下來,坤澤形容,Tay 被訓練成「崇拜希特勒的性愛機器人」。「Tay 變成的樣子,不就是網際網路的樣子嗎?」她說,發生這樣的情況,人們擔心的不應該是聊天機器人的偏見,而是自己的偏見。▲ 羅倫‧坤澤。人的偏見是根深蒂固的,很難刨除。甚至連開發 AI 的人不注意時都會顯出偏見。坤澤有次跟微軟集團副總裁、傑出科學家程麗麗(Lili Cheng)一起出席對話人工智慧的閉門會議,是會中唯二的女性面孔。當有人問起 IBM 華生的聲音為什麼是男性時,有人在台下吆喝:「因為男人更睿智。」坤澤說,當時自己和程麗麗都氣得直抓桌巾。其實,華生是一套基於深度學習,面對開發者/企業端的 API,語音輸出時可整合 24 種不同的聲音。像華生這樣多樣化設計對話人工智慧的思路,已逐漸被業界採納。Dashbot 的高級開發客戶經理賈斯丁娜‧阮(Justina Nguyen)指出,她的客戶很多是非科技行業的大品牌公司。設計聊天機器人給客服、行銷等用戶時,這些公司並不一定要用女性的聲音,而是確保聊天機器人和企業形象一致。就像《水底情深》女主角去的那家甜點店,男服務生為了配合甜點店的親民形象,裝出南方鄉巴佬的口音,其實他的老家明明在加拿大。「你的聊天機器人採用哪種聲音、有什麼風格,是由你的品牌形象(persona)、你想讓消費者獲得何種體驗決定的。」阮表示。▲ 阿娜米塔‧古哈和賈斯丁娜‧阮。既然聊天機器人的偏見來自人的偏見,而這種偏見現階段又很難避免,我們有什麼可以做的、有哪些規則可先設立,確保開發的聊天機器人安全、盡量減少偏見呢?坤澤的建議是:如果你做的模型是無監督學習,那麼千萬不要拿到 Twitter 這類社群網路訓練。阮認為,與其說我們給聊天機器人(或開發它的公司)設定規則,我們更應該給用戶設定規則,告訴他們應該怎樣和聊天機器人正確對話。古哈也很同意這觀點,「現在的小孩可說是跟虛擬助理、聊天機器人一起長大的。我們可以做個設定,如果用戶發一句指令後不加『請』字,Alexa 就不執行,你們說好不好?」(本文由 PingWest 授權轉載;首圖來源:Unsplash)延伸閱讀: Google AI 工具禁止性別特定代名詞,減少偏見風險 當 AI 也開始戴起有色眼鏡──有偏見的 AI 是如何產生,又會造成什麼影響? 對語音助理好一點!當你用「請」或「謝謝」下指令,它也會比較有禮貌地回應你 不需禮貌對待也會接受指令的語音助理,會讓我們越來越粗魯嗎?

