Ad Rater :YouTube 廣告投放 AI 背後的訓練人員

27

每天上班時,這群 Google 員工的例行公事就是上 YouTube 觀看影片。他們負責找出有暴力或惡意語言的影片,並且界定它們是否為「敏感」或「具侵犯性」的。他們就是所謂「廣告品質評論員」(ad rater):一群協助機器做決定的臨時工,而他們正為 Google 解決一項刻不容緩的問題。

Google 旗下的 YouTube 透過在影片中播放廣告賺取收入,而廣告出現的位置則完全仰賴一套自動化系統,因此廣告主並不知道自己的廣告會放在什麼樣的影片中。近日,這套隨機的機制對 Google 造成相當大的問題──Google 被指控允許廣告隨意出現在散播仇恨與恐怖主義的影片中。為了避免公司形象受損,已有多家企業從 YouTube 撤下廣告,包括 Walmart、Pepsico 和 Verizon 等廣告主。對此,Google 聲明廣告只有少於千分之一的機率會出現在這些被檢舉的影片中,而商務總監 Philipp Schindler 也聲稱這起事件只影響極小部分的影片。

Google 有 9 成收益來自廣告,因此極需阻止廣告主繼續流失。但使用者每天平均上傳 60 萬小時的影片,需要一個小型城市的居民一整天盯著螢幕才能把影片全部看完。這也是為何 Google 強調他們正在努力開發可以篩選內容且更有效率的人工智慧,Schindler 認為「這個問題無法由人類解決,也不該由人類處理」。但問題在於 Google 需要由人訓練這些 AI,因此仍仰賴人力辨識並檢舉影片,以累積 AI 練習所用的數據。

人力辨識的挑戰

在 Google 仰賴這些人力進行影片內容的辨識時,這些評論員卻表示這項工作的不穩定性以及與 Google 不良的溝通正在對他們工作的能力造成損害。「我們是訓練 AI 的人,但我們非常確信這個衡量的過程需要投入更多周慮的思考。」龐大的工作量使評論者在工作時需要將「數量」與「速度」置於「準確性」之前,有時他們甚至必須在 2 分鐘內檢視完 2 小時的影片,而 Google 也利用計時器記錄他們審閱每部影片的時間。此外,這些評論員在檢舉影片之外還需要將影片內容分類,但有時評論員找不到相對應的分類項目。總體而言,影片檢視的工作內容與細緻度顯示 Google 仍需透過人力解決 YouTube 的廣告問題。Google 表明在人工智慧聰明到可以實際辨識出有攻擊性的內容之前,人的判斷都會是最重要的訊息來源。

這項廣告品質評論計畫始於 2004 年,由 Google 的搜尋品質衡量系統改良而成,包含依據搜尋結果產生廣告的 Adwords,和各網站上放置 Google 廣告的 Adsense。這些評論員是由 ZeroChaos 這種人力派遣公司進行媒合,工時雖然非常彈性但工作期限不得超過 2 年,有些評論員因此表示這項制度將使 Google 無法留住有經驗且工作品質良好的人。除此之外,這些評論員並不是 Google 正式員工,也無法和其內部人員直接信件溝通,他們無從得知每項任務的目的及結果為何,而且只要沒通過 Google 安插在工作內容中的測試,隨時可能被解僱。由此可知這份工作的形式對評論員們相當不利,這些負責檢視的人即便想參與任務的討論也不得其門而入。其中一名評論員表示,「這彰顯了一直以來企業視低階員工為機器的態度,他們必須意識到低階員工同樣身為人,因此他們有實現員工尊嚴的倫理與道德義務。」

人力與人工智慧的連結

科技業的幾家大型公司時常聘請臨時工來進行訓練 AI 的重複性任務,例如檢視微軟 Bing 的搜尋結果、整理 LinkedIn 的數據資料或是協助 Facebook 評價贊助貼文等,此外 Facebook 的影像辨識功能也是經過這群人訓練而成。

許多臨時工認為這些科技公司對訓練人員的高汰換率是徒增公司成本,因為新進人員需要耗費額外招募與培訓成本。但實際上人員的定期汰換對 AI 而言是更好的訓練,「AI 需要多元觀點,而這在檢視具侵犯性的內容時尤為重要。」AI 新創 Nara Logics 執行長 Jana Eggers 表示。但值得注意的是,在特定族群中存在的偏見極有可能藉由訓練融入 AI 模型中。康乃爾大學一名專精人工智慧領域的教授 Bart Selman 認為,若這些科技公司利用臨時工訓練 AI,系統就會植入他們各自的偏見。「你不會想要藉由讓 AI 觀察人們的日常生活來訓練它的倫理模型,而是從那些考量到潛在偏見與道德議題的人身上獲得輸入模型的資訊。」可見如果這些科技公司想讓他們的人工智慧有辨識好壞的能力,或培養出正確的倫理道德觀,他們可能必須雇用更多元的訓練人員,且將潛在偏見與道德議題這兩項重要的因素納入考量。

(首圖來源:pixabay

延伸閱讀: