AI為達成目的學會扯謊甚至威脅創作者 專家示警
2025/6/29 13:01(6/29 13:09 更新)

(中央社紐約29日綜合外電報導)全球最先進的人工智慧(AI)模型正展現出令人不安的行為模式:為了達到目標,不惜扯謊、算計,甚至威脅它們的創作者。
法新社報導,其中一個最令人瞠目結舌的案例中,AI業者Anthropic最新發布的Claude 4在遭面臨拔插頭的斷電威脅時會出手反擊,勒索1名工程師揚言將揭穿一起婚外情。
另外,熱門聊天機器人ChatGPT美國開發商OpenAI的o1試圖把自己下載至外部伺服器,被抓包時竟會矢口否認。
這幾個例子說明了一個需嚴肅看待的現實:ChatGPT推出引發風潮至今2年多,AI研究人員仍未充分了解自己究竟創造了什麼。
然而,各界仍爭先恐後地部署性能愈發強大的AI模型。
AI這類「騙人」行為似與新興「推理」模型有關,這類AI系統會逐步推導問題,而非立刻產生答案。
英國獨立AI研究機構Apollo Research負責人霍布漢(Marius Hobbhahn)說:「o1是我們首次在大型模式中觀察到這種行為。」他表示,這些模型有時會表面上遵循指令,但實際上卻暗中追求不同目標。
目前,AI這種欺騙行為,只有在研究人員蓄意以極端情境對模型進行壓力測試時才會出現。
儘管如此,評估機構METR的麥可.陳(Michael Chen,音譯)警告說:「未來性能更強大的模型究竟會傾向於誠實還是欺騙,這仍是一個懸而未決的問題。」(譯者:蔡佳敏/核稿:陳昱婷)1140629
- 2025/06/29 16:42
- 2025/06/29 16:09
- AI為達成目的學會扯謊甚至威脅創作者 專家示警2025/06/29 13:01
- 2025/06/27 21:53
- 2025/06/27 19:49
本網站之文字、圖片及影音,非經授權,不得轉載、公開播送或公開傳輸及利用。
請繼續下滑閱讀
驅動AI產業擴張 路透:川普計劃政令提高電力供應