100場視訊每日:模型正申請成為AI詐騙的臉孔
AI被用於製造高仿視訊以詐騙民眾
隨著人工智慧技術的發展,詐騙分子不再僅透過電話聯絡,而是開始使用AI生成假視訊、克隆聲音,並製作高仿的臉孔,以欺騙受害者。
多個Telegram頻道出現「AI臉孔模型」招聘廣告
根據WIRED報導,數十個Telegram頻道中出現了「AI臉孔模型」的職缺廣告,這些職位多由女性申請,但實際上這些人可能被用來作為詐騙的工具,以假扮真實人物與受害者進行視訊對話。
技術與倫理風險日益嚴重
- 詐騙者利用AI技術,快速生成真實感十足的視訊與聲音,使受害者難以分辨真假。
- 部分平臺如Haotian AI,提供臉孔換置功能,被用於建立虛假人設,從而進行戀愛或財務詐騙。
- 專家警告,隨著AI技術普及,民眾需提高警覺,學習辨識深偽(deepfake)內容。
相關案例與警示
例如,有個AI臉孔人設「Stacy Ross」被用於重量減脂詐騙,並利用真實個人肖像進行推廣。此外,也有案例顯示,詐騙者能即時換臉,讓他人在視訊中「看起來」是另一個人,並成功獲利。
相關機構已發出警告,提醒民眾警惕AI生成的假視訊與假聲音,並建議使用防詐技術與軟體來保護自己。
來源:https://www.wired.com/story/models-are-applying-to-be-the-face-of-ai-scams/
