本網站使用相關技術提供更好的閱讀體驗,同時尊重使用者隱私,點這裡瞭解中央社隱私聲明當您關閉此視窗,代表您同意上述規範。
Your browser does not appear to support Traditional Chinese. Would you like to go to CNA’s English website, “Focus Taiwan" ?
こちらのページは繁体字版です。日本語版「フォーカス台湾」に移動しますか。
Se detecta que el idioma que usted usa no es el carácter chino tradicional.Por favor, intente entrar en la Página web de“Español”

中國情緒辨識科技普及化 侵害人權疑慮升高

最新更新:2021/01/28 23:54

(中央社倫敦27日綜合外電報導)情緒辨識技術是透過臉部表情、聲調變化或肢體語言等生理特徵,辨識人類情緒的最新科技。研究人員指出,儘管存在準確性和更嚴重的侵犯人權等疑慮,這項技術在中國日益普及。

隨著人工智慧技術日趨成熟,情緒辨識技術的運用益發廣泛,從偵訊時協助警方監控嫌疑人臉部表情,到學校透過追蹤學生眼睛移動裝置揪出不專心上課學生等,都有這類工具用武之地。

英國人權倡議組織Article 19本週發表調查報告,公布中國有數十家公司,在教育、公安與運輸領域提供這類工具。

Article 19的資深計畫幹部馬達(Vidushi Marda)表示:「基於這項技術的種族歧視基礎和違反基本人權,應禁止相關設計、開發、部署、銷售與轉移。」

調查報告共同作者、加州大學柏克萊分校(University of California, Berkeley)網路安全博士候選人阿邁德(Shazeda Ahmed)表示,科技工具無法可靠量測及量化人類情緒。

她又說,這類系統可能會助長偏見,尤其是利用生理特徵協助警方辨別罪犯的辨識系統。

這類系統也引發對一些新興趨勢的疑慮,包括搜集情緒資料來監控學生、犯罪嫌疑人,甚至利用辨識技術來偵測疲勞或不安全動作以監控汽車駕駛等。

阿邁德在電訪中告訴湯森路透基金會(TRF):「一大堆這類辨識系統通常不會說明,它們將會如何處理與長期運用這些資料。」

她補充說,「我們相當擔心功能蠕變(function creep)」,指的是把搜集到資料運用在其他用途。

馬達則指出,即使是那些看似無傷大雅的情緒辨識技術也可能造成傷害。她說:「這類監控容易產生滑坡效應(slippery slope)」。

「舉例來說,有一間學校引進監控系統評估學生在學校有無均衡飲食,不久後可能就會變成情緒辨識系統,誰知道接下來又會演變成什麼?」(實習編譯:王宇潔/核稿:劉學源)1100128

本網站之文字、圖片及影音,非經授權,不得轉載、公開播送或公開傳輸及利用。

下載中央社「一手新聞」 app,每日新聞不漏接!
iOS App下載Android App下載
地機族
請繼續往下閱讀