轉載從: Tech News 科技新報
科技部 11 日舉辦記者會,邀請台灣大學 AI 中心分享「可解釋性人工智慧」,除了具備高辨識率的人臉辨識能力,還可以有條理的解釋 AI 產出結果的原因,有效提升人類使用 AI 的信任度。
近年來 AI 臉部辨識已進步到深度學習等類神經網路,由電腦自己訂規則,憑著數以千計的條件,產出高精準度的答案,不但可辨認出真假金正恩,還可以在低解析度或刻意喬裝的情況下辨識,甚至超越人類辨識能力。
台大資工系教授徐宏民指出,過去人們不了解 AI 做決策的過程及原因,讓人駐足不前,因此,台大人工智慧技術暨全幅健康照護聯合研究中心(台大 AI 中心)在科技部支持下,打造出「可解釋性人工智慧」(Explainable AI,XAI),猶如打開「AI 黑盒子」,確認 AI 決策的合理性。「我們能解釋過去跟現在小豬哪邊不一樣,像是髮型不太一樣,下巴變得比較尖,能解釋這裡不太一樣,但鼻子、眼睛周遭還是非常像,所以專注這裡,最後判斷這是小豬。」
科技部長陳良基也指出,科技部去年 9 月公布人工智慧科研發展指引,強調 AI 的「透明性與可追溯性」及「可解釋性」,期盼讓普世大眾對 AI 感到信賴與安心。「這非常重要,AI 不應該是黑盒子,必須告訴我,現在幫我決定能不能進門、能不能得到補助,不能算完卻不能解釋,必須解釋清楚。」
徐宏民也提到,為加速技術擴散與落地應用,此 AI 模組 xCos 可與其他臉部辨識系統相互搭配,並將這項技術開源供國內外產學研單位使用,希望將相關理念拓展至其他深度學習相關應用。
(本文由 中央廣播電台 授權轉載;首圖為陳良基部長現場體驗臉部辨識,來源:科技部)