研究:Grok於11天內生成300萬張性化不雅影像
(中央社華盛頓22日綜合外電報導)研究人員今天指出,美國億萬富豪馬斯克的人工智慧(AI)聊天機器人Grok據估於短短11天內,生成300萬張女性及孩童的性化不雅照,其調查揭露引發全球強烈抗議的AI生成露骨內容的規模。
Grok是由馬斯克(Elon Musk)旗下新創公司xAI開發,並整合進社群媒體X平台。Grok最近推出影像編輯功能,使用者只需輸入「讓她穿上比基尼」或「脫掉她的衣服」等簡單文字指令,就能線上編修真人影像。
法新社報導,大量不雅深偽(deepfake)影像在網路上流傳,監管機構與受害者均表達強烈憤怒,促使多國對Grok祭出禁令。
研究網路惡意假訊息有害影響的非營利監管組織「對抗網路仇恨中心」(Center for Countering Digital Hate)表示:「X平台上的Grok推出影像編輯新功能後,這項AI工具據估已生成大約300萬張不雅照,其中2萬3000張疑似是描繪孩童。」
對抗網路仇恨中心的報告估計,Grok在短短11天內生成如此大量的寫實影像,等於平均每分鐘產出190張不雅照。
這份報告未提及,有多少影像是在未經當事人同意下生成。
不過報告寫道,Grok不雅照所描繪的公眾人物包括美國女演員席琳娜(Selena Gomez)、歌手泰勒絲(Taylor Swift)和妮姬米娜(Nicki Minaj),還有瑞典副總理布仕(Ebba Busch)、前美國副總統賀錦麗(Kamala Harris)等政治人物。
對抗網路仇恨中心執行長阿邁德(Imran Ahmed)說道:「資料清楚表明,馬斯克的Grok是生產性侵害(sexual abuse)影像素材的工廠。」
X目前尚未就這項報告的發現置評。法新社透過電子郵件聯繫xAI後,僅收到簡短的自動回覆:「傳統媒體的謊言。」
在全球反彈聲浪下,X上週宣布,在此類行為被視為非法的地區,將對所有Grok和X平台用戶就生成身著「比基尼、內衣及類似服裝」人物照片的功能,實施「地理封鎖」。
然而阿邁德指出:「亡羊補牢無法抹去這些傷害。我們必須讓科技巨擘負起責任,因為是他們讓加害者僅需點擊按鈕,就能傷害女性和女孩。」(編譯:洪培英)1150123
本網站之文字、圖片及影音,非經授權,不得轉載、公開播送或公開傳輸及利用。



















