AI“認不出”AI造假的圖片?這給我們敲響了警鐘

AI“認不出”AI造假的圖片?這給我們敲響了警鐘

AI偽造圖片難以被識別

根據最新實驗結果顯示,只要造假者掌握幾個關鍵步驟,AI生成的圖片幾乎不可能被其他AI系統識別出來。這項技術的突破,凸顯了當前AI在內容真實性判斷上的侷限。

AI生成圖片的典型特徵

AI生成的圖片常表現出以下特徵:人物面部細節模糊、光影過渡生硬,部分作品還存在六指、六趾等生理結構錯誤,以及手部姿態扭曲等問題,這些特徵容易被用戶察覺,但也可能被AI誤判為真實。

技術原理與挑戰

實現AI換臉的技術被稱為Deepfake,其原理基於生成對抗網絡(GAN),由一個生成網絡與一個判別網絡組成。生成網絡負責合成虛假圖像,判別網絡則試圖識別圖像的真實性。然而,隨著技術演進,生成網絡的輸出越來越逼真,導致判別網絡難以有效識別偽造內容。

現實影響與社會挑戰

AI應用中的真實性與可信度問題日益突出,尤其在深度偽造技術成熟後,虛假內容變得極為“逼真”,對個人隱私、社會穩定乃至國家安全構成嚴峻挑戰。相關案例顯示,AI生成的虛假圖片甚至可能影響攝影比賽的評審結果,引發對原創性與真實性規則的重新審視。

來源:https://m.36kr.com/p/3642036492308357

返回頂端