Site icon About 24/7

FDA 召開公開會議,著重討論醫療 AI 的數據多樣性及演算法偏見問題

轉載從: Tech News 科技新報

據外媒 HealthcareItNews 報導,美國時間 10 月 22 日,FDA 召集患者參與諮詢委員會(Patient Engagement Advisory Committee)進行了一場公開會議,討論醫療設備中人工智慧和機器學習方面的問題。

2015 年 9 月,主管醫療器械的 FDA 設備和放射健康中心成立了首個患者參與諮詢委員會,以確保在醫療設備的審評中反映患者需求。

PEAC 主席、美國腎臟患者協會政策和全球事務主席 Paul Conway 博士說:「使用 AI 和機器學習技術的設備將透過提高患者治療關鍵過程的效率來改變醫療服務。」

此外,Conway 和其他人在小組討論中也指出,人工智慧和機器學習系統可能存在演算法偏見和缺乏透明度──反過來,這可能會削弱患者對設備的信任。

為了應對新冠肺炎疫情,醫療設備的創新速度不斷加快。設備和放射健康中心主任 Jeff Shuren 博士指出,已經有 562 款醫療設備獲得了 FDA 的緊急使用授權。Shuren 說,患者的需求必須做為研發過程的一部分來考慮。

「我們繼續鼓勵醫療系統的所有成員努力理解患者的觀點,並積極主動地將他們納入醫療設備的開發、修改和評估中。患者是我們工作的靈感來源,儘管新冠肺炎這個突發的公衛事件給全球帶來了挑戰,但是患者的呼聲不會停止。如果說有什麼不同的話,那就是更有理由讓人們聽到它。」

然而,飛利浦全球軟體標準監管主管 Pat Baird 表示,獲得患者信任還意味著,要正視穩定和準確的數據集的重要性。

Baird 表示,「為了幫助患者,我們需要更加熟悉他們,了解他們的醫療條件、需求和願望,更好地了解那些潛在的因素,這些因素往往在收集的數據中潛藏著一些趨勢。」

Baird 解釋:「在一個子集上訓練的演算法可能與另一個子集不相關。」

例如,如果一家醫院需要為佛羅里達州退休社區的老年人提供醫療設備,一種辨識緬因州青少年醫療需求的訓練演算法就不會有效──換言之,不是每個人都有同樣的需求。「數據中的這種偏差不是故意的,但是很難辨識,」因此,Baird 鼓勵對偏見類型進行分類,並向公眾公開,「偏差帶來的後果,就是失去患者的信任。我們需要集思廣益,開發出更好的人工智慧產品。」

讓患者數據多樣化

CDRH 的首席醫務長兼婦女健康主任 Terri Cornelison 上尉指出,人口統計鑑定在醫學上具有重要意義,這是因為,人口統計包含了遺傳和健康的社會決定因素等。Cornelison 說到,「科學告訴我們,這些不僅是明確的鑑別指標,而且實際上與臨床相關。」

她指出,一項不辨識患者性別的臨床研究可能會掩蓋不同染色體人群的差異化結果。在許多情況下,如果現有的訓練數據不能代表不同類型的患者,那麼 AI 就會學的越來越「窄」。

「更簡單地說,如果數據不包括你,AI 演算法可能就不能代表你。AI 正在改變我們的衛生系統和日常生活。儘管取得了這些重大成就,但是大多數人都忽視了性別、年齡等因素對健康和疾病差異的影響。」

委員會還研究了「知情同意」如何在演算法訓練中發揮作用。

「如果我同意接受 AI 設備的治療,我就有權知道數據集裡是否有像我這樣的病人……」健康溝通顧問 Bennet Dunlap 說,「我認為 FDA 不應該接受或批准一種沒有病人參與的醫療設備」。

「你需要知道你的數據將被用於什麼。我是白人,我可以假設年長的白人包含(數據集)中。這是每個人的出發點,但情況往往不是這樣。」

埃默里大學 Goizueta 阿滋海默症研究中心 Dr. Monica Parker 指出,讓患者數據多樣化,需要社區內可信實體的幫助。「如果人們為了更廣泛的多樣化而開發這些設備,那麼這些設備是在哪裡進行測試的,這是不是存在一些問題呢?」

她提出了在美國東、西海岸的學術醫療中心或技術中心進行測試的問題,而不是「從醫院收集真實世界的數據,因為這些醫院可能在疾病過程中使用一些不同的設備」。

Faces and Voices Recovery 的營運總監 Philip Rutherford 也補充到,在數據集中區分多樣性是不夠的,負責訓練演算法的人也必須不是同質的,「如果希望數據多樣化,我們就必須讓收集數據的人也多樣化」。

因此,患者參與諮詢委員會呼籲,FDA 在解決人工智慧和機器學習中的演算法偏見方面發揮強有力的作用。

Conway 在最後總結說,「歸根結底,多樣性驗證和無意識的偏見……如果從一開始就有強有力的領導,所有這些問題都可以得到解決。」

(本文由 雷鋒網 授權轉載;首圖來源:shutterstock)

Exit mobile version