本網站使用相關技術提供更好的閱讀體驗,同時尊重使用者隱私,點這裡瞭解中央社隱私聲明當您關閉此視窗,代表您同意上述規範。
Your browser does not appear to support Traditional Chinese. Would you like to go to CNA’s English website, “Focus Taiwan" ?
こちらのページは繁体字版です。日本語版「フォーカス台湾」に移動しますか。

AI藏種族歧視因子 清大跨國團隊揭醫學倫理隱憂

2022/6/9 18:14(6/11 13:15 更新)
請同意我們的隱私權規範,才能啟用聽新聞的功能。
清大資工系助理教授郭柏志(左)與麻省理工學院、哈佛大學、史丹佛大學、多倫多大學等學校跨國合作,分析超過20萬名病患的胸部、頸椎、手部X光及胸部電腦斷層掃描,發現人工智慧有「歧視」問題,相關研究成果登上國際頂尖期刊「刺胳針數位健康」(Lancet Digital Health)。(清華大學提供)中央社記者郭宣彣傳真 111年6月9日
清大資工系助理教授郭柏志(左)與麻省理工學院、哈佛大學、史丹佛大學、多倫多大學等學校跨國合作,分析超過20萬名病患的胸部、頸椎、手部X光及胸部電腦斷層掃描,發現人工智慧有「歧視」問題,相關研究成果登上國際頂尖期刊「刺胳針數位健康」(Lancet Digital Health)。(清華大學提供)中央社記者郭宣彣傳真 111年6月9日
請同意我們的隱私權規範,才能啟用聽新聞的功能。

(中央社記者郭宣彣新竹市9日電)清大資工系助理教授郭柏志與麻省理工學院等校研究發現,採AI深度學習演算法判讀X光片及電腦斷層掃描時,會分辨人種,進而影響醫療判斷準確率,被視為人工智慧的種族歧視。

清華大學今天發布新聞稿指出,郭柏志與麻省理工學院、哈佛大學、史丹佛大學、多倫多大學等校跨國合作,分析超過20萬名病患的胸部、頸椎、手部X光及胸部電腦斷層掃描,發現人工智慧有「歧視」的問題。此研究成果日前登上國際頂尖期刊「刺胳針數位健康」(The Lancet Digital Health),吸引外媒報導。

郭柏志指出,透過AI人工智慧協助診療發現,白人的醫學影像有問題卻沒被檢查出來的誤判率是17%,黑人的誤判率卻達28%。醫學影像的誤判,會影響急診、醫療給付等資源分配。

郭柏志說,醫界近年大量引進人工智慧,透過智慧診療及醫學影像識別技術等有助於醫生更準確診斷,原是造福病患的好事,但這項研究揭露隱憂,提醒應注意醫療倫理,避免人工智慧產生的醫療不平等現象。

郭柏志表示,未來要如何去除歧視,讓各族群醫學影像判讀都有一致的準確率,為下一階段努力的目標。(編輯:戴光育)1110609

中央社「一手新聞」 app
iOS App下載Android App下載

本網站之文字、圖片及影音,非經授權,不得轉載、公開播送或公開傳輸及利用。

地機族