AI刑責仍存爭議 專家:建立監管制度才是關鍵
(中央社紐約10日綜合外電報導)針對人工智慧(AI)是否應承擔刑事責任的爭議持續延燒,法律專家指出,與其透過刑事訴訟究責,更應建立完善的監管制度,以填補現行法律對新興AI技術的規範缺口。
法新社報導,在去年佛羅里達州立大學校園槍擊案發生前,犯嫌伊克納(Phoenix Ikner)曾與AI聊天機器人對話,而非朋友、雙親,或任何可能阻止他的人。
根據佛州檢方掌握的證據,這名學生曾向ChatGPT詢問哪種武器與彈藥最適合發動攻擊,以及何時、何地能造成最多傷亡。調查人員表示,聊天機器人回答了他的問題。
如今,州檢察長烏特邁爾(James Uthmeier)希望釐清這是否意味OpenAI負有刑事責任。
他在宣布對ChatGPT開發商OpenAI展開刑事調查時表示,「如果螢幕另一端是人,我們將以殺人罪起訴」,而他並未排除對公司或員工提出刑事指控的可能性。
這起發生於2025年4月的校園槍擊案,使一個極具爭議的問題成為法律焦點,即AI開發者是否應為AI在犯罪或自殺事件中所扮演的角色承擔刑事責任。專家指出,這在法律上是可行但極為複雜的問題。
●犯罪性產品?
根據美國法律,相關公司確實有可能因此面臨刑事訴訟,但這類情況仍屬罕見。
上個月底,普度製藥(Purdue Pharma)因助長鴉片類藥物危機,被處以超過50億美元刑事罰款;福斯汽車(Volkswagen)則因廢氣排放造假案被判有罪;輝瑞(Pfizer)與埃克森美孚(Exxon)也曾因不同事件被究責。
然而,上述案件都涉及人類決策,而此案核心在於AI本身行為,這正是法律最棘手之處。
猶他大學(University of Utah)法律教授托克森(Matthew Tokson)表示:「歸根結底,是這項產品助長了犯罪行為,使此案既特殊,且相當棘手。」
法律專家指出,公司較可能面臨的指控是「過失」或「魯莽行為」,這通常屬輕罪,刑責較輕。
OpenAI認為,ChatGPT不應對此負責,並強調公司將持續強化安全機制,以進行偵測與防止濫用。
●民事還是刑事?
對尋求究責的人而言,民事訴訟或許是較可行的途徑。
托克森說,民事訴訟可能迫使企業在研發產品時更為謹慎,並正視失誤造成的人為後果。
目前美國已有多起針對AI平台的民事訴訟,其中多起涉及自殺案件,但迄今尚未出現相關企業須對此負責的裁決。
社群媒體受害者法律中心(Social Media Victims Law Center)律師柏格曼(Matthew Bergman)指出,新版ChatGPT已加入更多安全機制,但仍「不足以完全防護」。
但杜克大學(Duke University)法律教授賈瑞特(Brandon Garrett)認為,與其依賴刑事起訴,更需要國會與政府建立完善監管制度,才是「更明智的做法」。(編譯:劉文瑜)1150511
- AI刑責仍存爭議 專家:建立監管制度才是關鍵2026/05/11 12:37
- 2026/05/11 11:33
- 2026/05/11 07:44




















