當心,“AI”可能在欺騙你
近日,國家互聯網信息辦公室等四部門聯合發布《人工智能生成合成內容標識辦法》(以下簡稱《標識辦法》),自2025年9月1日起施行。旨在通過顯式和隱式標識規范人工智能生成內容的管理。《標識辦法》明確了服務提供者、傳播平臺及用戶的責任,要求對文本、圖片、音頻等生成內容進行全過程標識管理,以維護公共利益和公民權益。
在AI技術狂飆突進的今天,我們正面臨一個令人細思恐極的隱患——AI生成的內容可能通過“自我引用”完成造假閉環,讓虛構變成事實。這一過程中,平臺審核漏洞、技術濫用與數據污染的疊加效應,正在為虛假信息的“永動循環”提供溫床。

不加標注的發表AI生成內容,會導致AI內容從無中生有搖身一變,成為權威引用。AI生成內容的本質是基于概率模型的文本重組,而非對真實世界的客觀反映。例如,某些AI工具可根據指令批量生成虛構的“科學研究結論”或“社會事件描述”,這些內容往往缺乏真實數據支撐,卻因邏輯通順而極具迷惑性。例如,某用戶要求AI生成“某城市限制外賣配送政策”的文案,AI快速輸出包含虛構政策細節的內容,隨后該內容被自媒體平臺發布,未標注AI來源,成為“新聞”。當未標注AI來源的虛假內容不加任何標注的通過平臺審核后,其傳播過程即被賦予“社會存在感”。更危險的是,其他AI系統在抓取網絡數據訓練時,可能將這些虛假內容視為“真實信息”納入語料庫,形成數據污染。該“某城市限制外賣配送政策”文案被某網站發布后,其他AI在回答相關問題時直接引用該文章,形成“自證循環”。
AI造假閉環的形成原因主要有以下兩個方面:一是因為技術缺陷,在《標識辦法》正式施行之前,AI生成的內容沒有添加顯式或隱式標識,導致其混入語料庫,產生持續污染。部分作者為追求流量,故意隱瞞AI創作事實進行傳播,加劇造假閉環風險;二是由于平臺責任缺失,審核機制流于形式。依賴簡單的關鍵詞過濾,無法識別深度偽造的邏輯矛盾。對于AI生成文章中的數據,不加以核實和探究,致使虛假數據出現在權威平臺。
如何防止AI造假的擴張呢?給AI生成合成內容添加標識,是從源頭上治理AI造假的有效手段。如果把AI生成合成內容比作一種特殊產品,制作內容的AI服務商就是廠家,傳播內容的網絡平臺就是商店。《標識辦法》規定,廠家在產品出廠時要貼上標識引起商店關注,商店也要在銷售時通過貼標識等方式提醒消費者注意。其作用就是從內容生產和傳播的源頭入手,給“AI生產”打上識別碼,使其更容易被網絡平臺檢得出、被社會公眾看得見。公眾知道眼前信息源自AI,也就不會輕易上當受騙。
與此同時,我們還要積極主動地構建制度——平臺——公眾三道防線。相關部門要嚴格落實《標識辦法》,加大AI監管,對縱容AI造假的平臺實施相應處罰;平臺要落實全鏈路審核,對未標識內容實施“默認攔截”,并對AI內容進行專項數據交叉驗證;向公眾普及“AI內容鑒別知識”,主動對AI提供的數據鑒別真偽。此外,AI開發團隊還應建立官方認證的AI訓練數據池,對公共領域信息進行真實性核驗與標注,阻斷污染數據流入訓練環節。
AI造假不僅是技術上的問題,更是對人類社會信任的挑戰。若放任閉環形成,我們將陷入“所有信息皆可疑”的認知荒漠。唯有通過制度約束、平臺監管與公眾覺醒的協同,才能讓AI真正成為“輔人”而非“毀人”的工具。正如《標識辦法》所強調的:“AI可以擬人、助人,但不能騙人、坑人”。在這場與技術的賽跑中,人類的清醒與警惕,仍是最重要的防線。(高瑞闊)
?????投稿郵箱:jiujiukejiwang@163.com ??詳情訪問99科技網:http://www.hacbq.cn
推薦資訊























