非裔醫學影像誤判率更高?
跨國團隊揭AI存「種族歧視」

非裔醫學影像誤判率更高?
 跨國團隊揭AI存「種族歧視」 非裔醫學影像誤判率更高? 跨國團隊揭AI存「種族歧視」
字體大小
AAA
分享

人工智能(AI)也有「種族歧視」?台北清華大學資工系助理教授郭柏志與跨國研究團隊發現,人工智慧(AI)恐有種族歧視,使用AI深度學習演算法來判讀X光片及電腦斷層掃描,電腦竟可從醫學影像分辨出患者人種,不但影響判斷的準確率,更借引發醫療不平等現象,但迄今仍不解AI到底是如何「學到」。

X光片判斷種族 準確率高達9成

近年醫界大量引進AI,研發醫療機器人、智慧診療及醫學影像識別技術等,有助醫師快速、準確診斷。美國食品藥物管理局(FDA)也核准,醫院採用AI輔助判讀X光片及電腦斷層掃描等醫學影像,AI的深度學習系統可幫助電腦針對大量資料自我訓練,並發展出辨識模型。

清大與麻省理工、哈佛等跨國研究團隊,與美國國衛院合作,分析超過20萬位病患的胸部、頸椎、手部X光及胸部電腦斷層掃描,發現人類放射師無法從X光片判斷出患者的種族,但AI能輕易做到,且準確率高達9成。

團隊:不敢置信 瘋狂得「恐怖」

團隊中一名哈佛大學教授表示,當團隊成員告訴他AI可以從X光片來判斷人種,他簡直不敢置信,認為這真的太瘋狂,一定是哪裡出錯了。當愈來愈多的證據浮現,有團隊成員則直言感覺很「恐怖」。

郭柏志表示,團隊本來猜想AI可能是從骨質密度來判斷人種,因黑人的骨質密度高於白人,但後來發現並非如此。郭柏志出示1張手掌的X光片,顯示AI判讀人種的重點聚焦在中指與食指的第3指節,「團隊裡也有2、30年經驗的放射科醫師,但我們實在想不出來AI是怎麼判讀出人種的。」

白人黑人誤判率差逾10個百分點

AI能判讀人種,將影響醫學影像判讀準確率,引發嚴重醫療倫理問題,郭柏志表示,研究發現白人的醫學影像誤判率是17%,但黑人的誤判率卻高達28%,相差超過10個百分點,同時,誤判醫學影像也會影響急診、醫療給付等資源分配。

郭柏志指出,原以為人類才有歧視,AI應最公平,但沒想到AI也默默提取人類未要求它學習的資訊,如人種及性別等,下階段努力目標是去除歧視,讓各族群醫學影像判讀有一致準確率。研究成果最近登上了國際頂尖期刊《刺胳針數位健康》。

編輯:Sun

閱讀更多:

AI「生成」9張「萬能人臉」可冒充超過40%的人

《IT狗》Moby陰謀成真?蘋果收購初創打造AI音樂