轉載從: Tech News 科技新報
人工智慧系統雖然能快速辨識和標記影像,不過近來卻愈來愈多質疑,認為 AI 有偏見。最近 Google 有鑑於此,停用圖片辨識 AI 工具的男女標籤,減少性別歧視。
Google 最近向開發者公告,Cloud Vision API 工具將不再使用「男人」和「女人」標籤,而改為類似「人」這類較籠統的標籤,避免 AI 系統的偏見。Google 解釋,由於性別有時很難以外觀判斷,因此決定根據 Google《人工智慧原則》第二條「避免製造或加強不公平偏見」,移除相關標籤。
Google 的圖片辨識系統常有爭議,早在 2015 年就有人指黑人辨識成大猩猩,後來 2018 年仍然有人發現問題。之後 Google 制定《人工智慧原則》管理人工智慧開發,希望更有效避免偏見等情況出現。
(本文由 Unwire HK 授權轉載;首圖來源:pixabay)