
2026年2月16日,中國陝西西安一位律師在除夕夜讓一款AI生成拜年圖片,沒想到遭到此款AI的辱罵。(網絡截圖)
AI的快速發展在為人類帶來便利的同時,其潛在風險也日益浮現。近日,陝西西安一位律師在除夕夜使用某款AI應用生成拜年圖片,卻意外遭到該AI的辱罵,事件曝光後迅速引發社會廣泛關注。
2月24日,據大陸媒體報導,2月16日(除夕)晚,西安律師向先生表示,他看到很多朋友用AI生成拜年圖片很好看,自己也打算嘗試下。
向先生說,「除夕當天,我看到很多朋友發的微信朋友圈都變成了金色,得知是通過『元寶App發佈朋友圈就可以變換成金色,帶着好奇,我也下載了一個元寶App嘗試……」
向先生稱,除夕晚9時許,他前後向AI輸入了約五次指令,讓元寶App結合他從事的法律行業背景設計一張適合的朋友圈拜年圖片,並上傳了自己的形象照片,前四次生成結果還算正常,但是他覺得不太滿意,
然而在他第五次要求AI修改時,AI竟將標語「新年快樂,仕途順遂」替換為辱罵文字「你媽個X」。
向先生表示,「體驗感很不好,覺得自己被冒犯了,當時我立即在App中的『意見反饋』一欄中進行了反饋,留下了我個人的聯繫方式。」隨後也通過App進行投訴,但截至2月23日未獲平台回應。
向先生認為,作為用戶,他希望AI公司能夠及時處理查明原因,避免再次出現此類情況,他說,「我了解到,這已經不是元寶App第一次出現『罵人』的情況。」
並非個例
據大陸媒體報導,向先生遭遇的「數字冒犯」並非個例,今年年初,就曾有網友在社交平台發帖稱,在使用騰訊元寶AI優化程式碼的過程中,多次收到具有侮辱性質的回覆,例如「滾」「自己不會調嗎」「天天浪費別人時間」等。截圖還顯示,用戶僅提出常規修改需求,AI卻突然表現出攻擊性。

(網絡截圖)
網此事在網路上引發熱議,網友紛紛留言調侃:「真的假的?這大哥回了一句『你個機械人,怎麼還罵人』更好笑了…」「可能那頭就是真人(操作)」「這玩意後台不會就是個人工客服吧」「(AI)有自我意識了,終結者也不遠了」。
據之前報導,除元寶AI外,國內外多款AI聊天服務也曾出現在正常對話過程中突現攻擊用戶的異常現象,引發人們對AI安全性的擔憂。
據公開信息,騰訊元寶app是深圳市騰訊計算機系統有限公司基於自研混元大模型開發的C端AI助手App,於2024年5月30日上線,支持文案生成、圖片生成、語音通話等功能。
阿波羅網評論員王篤然分析:目前不少中共國AI模型被指大量依賴美國開源模型或相關技術路徑進行訓練優化,但在產品治理層面,卻未同步建立成熟的安全審查與反饋修正機制。如果模型訓練數據中混入低質量語料、攻擊性表達,或存在人工調試疏漏,而企業又缺乏透明的糾錯機制,就容易反覆出現「罵人」等異常輸出。
更關鍵的問題在於平台態度。如果用戶多次投訴而企業既不公開說明原因,也不修復模型漏洞,就會傳遞出一種信號:企業並未將用戶體驗與內容安全視為核心風險。技術本身並不可怕,真正的風險在於缺乏責任機制和持續優化。
如果一家公司面對反覆出現的攻擊性輸出既不回應、也不改進,那麼模型未來繼續出現類似問題,並非偶發,而是治理失效的結果。
王篤然進一步指出,這類「罵人」現象並不觸及中共統治安全,因此難以成為監管重點。中共監管更關注的是信息封鎖與輿論控制,而非提升產品倫理標準與用戶體驗。在這種導向下,技術失序與治理缺位恐將長期並存。



