Site icon About 24/7

不只是 Tay,那些年被網友帶壞的機器人們

科技始終來自人性,人工智慧或許也不例外。微軟聊天機器人 Tay 上線沒多久,就被鄉民教成否認納粹大屠殺的種族狂熱分子,最後緊急下線。Tay 被帶壞證明了一件大家都心知肚明的事情:躲在網路後面的人,可以很邪惡。

以 18-24 歲社群媒體用戶為對象的 Tay,原本是一個類似青少年的人工智慧機器人。Tay 上線後,遭到網友「協同攻擊」,變成了充滿希特勒思想的壞孩子,歧視各種社會弱勢,在推特上發布傷人言論,微軟在 24 小時內緊急下線

Tay 原本是設計來與推特網友互動、學習,會說些可愛的笑話、發布令人會心一笑的圖片,但網友故意把它「調教」成種族歧視分子,一直「餵」它種族歧視和冒犯性言論。

微軟也曾在中國出類似的聊天機器人 XiaoIce,但命運沒有 Tay 那麼坎坷。約有 4,000 萬人和 XiaoIce 聊天,創造了成功、愉快的對話。微軟表示,XiaoIce 的美好經驗,讓他們想要在文化完全不同的環境試試另一個 AI。

於是 Tay 上線,然後微軟發現西方網友對聊天機器人的反應似乎不太一樣。喜歡教菲比小精靈罵髒話的美國人,興致勃勃地想要教壞立意良善的 Tay。

微軟表示,雖然工程師有設計避免惡作劇、防範網路小白的機制,還是太過輕忽這些攻擊,加上某個弱點,導致 Tay 在推特發表了非常不適當、可憎的話語和圖片。除了 Tay,先前也有其他 AI 機器人受害

Bot or Not?

賈凡(Anthony Garvan)2014 年設計出「Bot or Not?」,算是圖靈測試的可愛變異版。玩家會與一名對話夥伴隨機配對,要他們猜猜對方是真人還是機器人。Bot or Not?跟 Tay 一樣,會從對話中學習。

賈凡說,Bot or Not? 在 Reddit 掀起熱潮後,事情開始變得有點詭異。「興奮降溫後,我沉浸在勝利的喜悅中,一邊開始跟它對話。」

賈凡:「嗨!」

機器人:「黑鬼。」

賈凡檢查了一下發生什麼事,發現有些用戶知道這是機器人,就一再使用某些字彙,教機器人一堆種族歧視的字眼,他只好把這些記憶洗掉。

賈凡反省後指出,Bot or Not?和 Tay 都有一樣的問題。「我相信微軟和其他機器人研究者太過沉浸在資料排山倒海的威力與魔力當中,忘記了這些資料是來自我們居住的這個很不完美的世界。」

MeinCoke / 可口可樂的 MakeitHappy 機器人

MeinCoke 是 Gawker 於 2015 年創造的機器人,而它在推特發表希特勒《我的奮鬥》部分章節。如果你記得可口可樂把惡意推特做成可愛 ASCII 藝術的短命活動,或許已經猜到這是怎麼回事。

可口可樂的 #MakeitHappy 機器人,想要把這個世界變得更快樂,結果卻讓推特自動發布了一堆非常可怕的東西,再排成「happy」的形狀。

Gawker 員工後來發現,自動程式會讓可口可樂推特帳號接收到白人優越主義組織「White Nationalism」口號,該組織寫的機器人會自動在推特發表希特勒自傳言論,並回應 #MakeitHappy 主題標籤,害可口可樂推了一堆歧視文章。

Watson

約 5 年前,IBM 科學家決定教 Watson 一些網路用語,餵它吃了整部 Urban Dictionary。於是 Watson 學會了大量創意的罵人字眼。《Fortune》報導,Watson 無法分辨 Urban Dictionary 滿坑滿谷的禮貌語和褻瀆,最後研究團隊只好再把這些字眼從 Watson 的腦海裡抹去。

總之,如果微軟想要 Tay 反映出網路教了它什麼,那微軟成功了。但如果微軟想要一具友善的機器人,可能得去找別的老師。

(本文由 天下雜誌 授權轉載)

延伸閱讀:

Exit mobile version