數發部AI風險分類框架 勞動部金管會等4部會擬先檢視
(中央社記者趙敏雅台北8日電)人工智慧(AI)成為全球競逐焦點,各國在推動產業發展的同時,也關注潛在影響。數發部訂定AI風險分類框架草案,將透過檢核表協助各部會盤點AI應用情境、識別、評估與應對風險,框架草案擬於3月底送行政院審查,目前數發部已與勞動部、金管會、衛福部及教育部優先討論,列為首波部會使用檢視表,評估AI應用風險。
立法院會於去年12月底三讀通過AI基本法,其中,三讀條文規定,數發部應參考國際標準或規範,推動與國際介接的AI風險分類框架,並協助各目的事業主管機關訂定以風險為基礎的管理規範。
數發部數位策略司司長蔡壽洤表示,法案定錨AI發展7大原則,應遵循永續發展與福祉、人類自主、隱私保護與資料治理、資安與安全、透明與可解釋、公平與不歧視及問責。依據7大原則,數發部建立AI風險分類框架,力拚3月底前將草案提報行政院。
蔡壽洤指出,草案中列出3大風險類型,第1類是AI系統本身的技術設計缺陷,涵蓋是否涉及歧視、不公平等;第2類為系統部署、操作及人機互動問題,包括使用者是否產生過度依賴;第3類是廣泛社會結構與環境衝擊,如是否影響民眾的工作權等。
他說明,AI風險分類框架是一套方法論,核心呈現形式為「AI風險管理措施檢核表」,由各部會勾選需優先處理的風險樣態,並釐清AI應用的風險程度,再決定後續應對措施,或建立高風險AI應用責任歸屬與救濟機制。
蔡壽洤表示,檢核表初步分4大區塊,首先是盤點AI應用情境,各部會須填寫AI應用名稱、使用場景、主要利害關係人、系統特性等,以定位評估項目。接著,進行風險辨識,表列3大風險類型及相關子類型,如安全漏洞、侵害隱私、深偽濫用等,各部會可針對所管轄的應用情境,勾選是否存在該項風險。
他說,針對已識別的風險,會進一步評估對生命安全、國家安全及利害關係人的潛在危害,透過影響對象、範圍及損害嚴重性,界定是否為AI基本法列舉的高風險樣態。最後是應對風險,檢核表提供「風險—措施」對照建議,如管制介入或干預程度由低到高,包括引導業者自律、透明度義務或自我揭露、事前審查或第三方驗證、禁止使用等都是可能的選項。
考量AI在各產業使用情境不同,蔡壽洤表示,數發部除了與各部會協作、廣納專家學者意見,也舉辦產業諮詢會議,邀集公協會及業界代表交流,確保檢核表具備實務可操作性,以兼顧政策治理與產業發展現況。
他指出,數發部會協助各部會識別與應對風險,目前優先與民生相關部會討論,去年第4季開始,已陸續與金管會、勞動部、衛福部及教育部交流,今年預計再與交通部、經濟部、國家通訊傳播委員會(NCC)接洽,盼各部會順利運用這套「工具」,避免標準不一。以勞動部為例,已舉行多場會議,聚焦雇主運用AI可能產生的風險樣態進行探討。
蔡壽洤強調,AI風險分類框架是提供各部會一致的風險識別基準,並非直接拘束業者;部分風險可透過規範加以因應,絕非一味禁止,「數發部絕對不是拉韁繩的角色」,而是希望協助產業善用AI實現升級。
針對AI基本法附帶決議,法案三讀後3個月內,跨部會須完成兒少、人權及性別影響評估。蔡壽洤表示,數發部已與專家、非政府組織(NGO)以及Google、LINE等國際平台交流,並發出問卷給相關領域專家及部會填寫,整理出較受關注的面向,評估報告預計3月中提報行政院。至於常設性評估機制,數發部會先盤點既有的兒少、性別及人權評估機制,研議介接整合的可行作法。(編輯:潘羿菁)1150308
本網站之文字、圖片及影音,非經授權,不得轉載、公開播送或公開傳輸及利用。




















