一張照片可實(shí)時(shí)視頻換臉!警惕AI合成這種新型網(wǎng)絡(luò )詐騙手段
來(lái)源:反詐中心
發(fā)布時(shí)間:2024-08-27
瀏覽次數:1537

為保護用戶(hù)權益,防止賬號被盜,很多社交軟件都設置了人臉識別的登錄驗證環(huán)節。然而,這一驗證環(huán)節可能并不需要本人來(lái)操作,在湖北黃石就剛剛破獲一起用AI換臉技術(shù)解鎖社交賬號并倒賣(mài)獲利的詐騙案。

?前段時(shí)間,湖北黃石的王先生偶然進(jìn)入某炒股直播間,王先生添加了直播間推送的社交賬號后,跟對方一起進(jìn)行股票投資。隨著(zhù)投資金額不斷增加,當王先生想要提現時(shí),發(fā)現對方的社交賬號因涉嫌詐騙已被凍結,資金無(wú)法取出。

受害人 王先生一直取不出來(lái),這個(gè)時(shí)候就發(fā)現了不對,因為他老是找各種理由讓你取不了錢(qián)。后來(lái)我發(fā)現他的社交賬號被凍結了。

警方在偵辦案件過(guò)程中,意外發(fā)現該涉案社交賬號突然解凍并重新登錄,推測可能有團伙幫助詐騙嫌疑人解封了賬號。調查發(fā)現賬號IP所在地在河南,黃石警方在當地配合下,很快抓獲三名嫌疑人,現場(chǎng)查獲13臺電腦、9部平板、119部手機和80張電話(huà)卡。經(jīng)訊問(wèn),高某與許某2023年9月底開(kāi)始在網(wǎng)上販賣(mài)和幫他人解鎖社交賬號,通過(guò)AI換臉融合的動(dòng)態(tài)視頻幫人解鎖一些被平臺凍結的交友賬號。

湖北省黃石市公安局下陸分局指揮中心民警 王楚奇他通過(guò)自己在網(wǎng)上購買(mǎi)的一款視頻合成軟件,按照社交賬號要求解封作認證的這些規定動(dòng)作,利用他自己的人臉和他合成的那個(gè)視頻,生成的AI視頻上傳到社交賬號的后臺,來(lái)進(jìn)行認證。

據了解,這個(gè)團伙每解鎖一個(gè)賬號收費15元至30元不等,其中許多賬號是因涉嫌詐騙被凍結的賬號。該團伙共解凍了2107個(gè)賬號,從中獲利40萬(wàn)元。民警告訴記者,AI合成視頻已經(jīng)成為新型網(wǎng)絡(luò )詐騙的重要手段。

湖北省黃石市公安局下陸分局新下陸派出所治安巡防副隊長(cháng) 張軍不要將自己的身份證號、身份證頭像、手機號等等自己的隱私信息在網(wǎng)上進(jìn)行暴露,加強自己的隱私信息的保護。

我們常說(shuō)“眼見(jiàn)為實(shí)”,但在A(yíng)I時(shí)代,肉眼所看見(jiàn)的也不一定是真相。一些不法分子利用“AI換臉”技術(shù)實(shí)施詐騙,已成為一種新型騙局。一張“肖像照片”、一段“貌似熟人的視頻”,都可能被不法分子利用作為詐騙的手段和工具。


在工業(yè)和信息化部反詐專(zhuān)班的實(shí)驗室里,技術(shù)人員向記者演示了兩種常用的AI換臉技術(shù)。通過(guò)一張事先從網(wǎng)絡(luò )上公開(kāi)獲取的記者本人照片,經(jīng)過(guò)一段時(shí)間的模型訓練。這張照片就能在演示者的控制下像真人一樣做出轉頭、張嘴、眨眼、微笑等表情和動(dòng)作。

工業(yè)和信息化部反詐工作專(zhuān)班專(zhuān)家 李坤:不法分子首先會(huì )通過(guò)各種公開(kāi)的渠道獲取受害人的個(gè)人肖像或視頻,然后利用AI技術(shù),對這些照片中的面容特征進(jìn)行學(xué)習,從而模仿眨眼、搖頭等動(dòng)作,實(shí)現以假亂真的效果。

李坤表示,除了讓照片上的人像活化,AI換臉技術(shù)還能實(shí)現在即時(shí)視頻通信狀態(tài)下的實(shí)時(shí)換臉。技術(shù)人員也通過(guò)AI換臉技術(shù)讓記者體驗了一下與另一個(gè)“自己”視頻對話(huà)的效果。

工業(yè)和信息化部反詐工作專(zhuān)班 技術(shù)人員:主要找了一些公開(kāi)的社交媒體平臺,去拉取一些公共的視頻。拿了這些數據,整體的訓練時(shí)間差不多花了1天,24小時(shí)達到目前這個(gè)效果。 如果時(shí)間長(cháng)點(diǎn)的話(huà),我們畫(huà)面的清晰會(huì )有所提升。

技術(shù)人員告訴記者,所有用于A(yíng)I換臉訓練的記者照片和視頻都是從網(wǎng)上公開(kāi)收集的,總共只用了四五張照片和不到五分鐘的素材。如果有充足的訓練時(shí)間,仿真效果會(huì )更好。除了面容以外,聲音也可以通過(guò)同樣的技術(shù)來(lái)仿冒。專(zhuān)家指出,雖然目前AI換臉和仿聲有一定的技術(shù)門(mén)檻和較高的實(shí)現成本,但如果被不法分子掌握,就可能在即時(shí)通信或者社交軟件上偽裝成他人,開(kāi)展相應的詐騙活動(dòng)。

利用AI技術(shù)制作換臉視頻或合成聲音來(lái)實(shí)施詐騙的確讓人防不勝防,那么如何防范這種風(fēng)險呢?有關(guān)部門(mén)正在開(kāi)發(fā)相關(guān)的反制技術(shù)和手段。

工業(yè)和信息化部反詐專(zhuān)班專(zhuān)家 李坤我們正在會(huì )同行業(yè)內的手機終端企業(yè),將推出AI換臉詐騙風(fēng)險提醒功能。這項功能僅在手機端來(lái)本地運行,能夠有效保護用戶(hù)數據不泄露,經(jīng)過(guò)用戶(hù)授權后,可為用戶(hù)提供AI換臉詐騙風(fēng)險預警提醒。


記者在反詐專(zhuān)班的實(shí)驗室現場(chǎng)體驗了正在測試中的AI換臉詐騙檢測與預警技術(shù)。當用AI換了臉的技術(shù)人員與記者發(fā)起視頻通話(huà)時(shí),測試手機終端提示“對方疑似假冒身份”。點(diǎn)擊檢測按鈕,經(jīng)過(guò)圖像掃描,系統提示“AI換臉合成概率93%”。

據了解,AI換臉主要是使用深度合成技術(shù)?!痘ヂ?lián)網(wǎng)信息服務(wù)深度合成管理規定》提出了算法備案、安全評估的手段,要求深度合成服務(wù)提供者對深度合成的內容添加顯式或隱式水印。

中國信通院人工智能所安全與元宇宙部專(zhuān)家 陳文弢要對生成合成的內容去添加一些水印,這個(gè)水印的本質(zhì)其實(shí)就是要一方面去提示公眾這個(gè)內容是由AI生成或者合成的,另一方面也是要追溯它的來(lái)源。

專(zhuān)家提醒,AI詐騙是隱私信息泄露與詐騙陷阱的結合,要加強對個(gè)人隱私的保護,不輕易提供人臉、指紋等個(gè)人生物信息給他人,不過(guò)度公開(kāi)或分享動(dòng)圖、視頻等,尤其涉及“朋友”“領(lǐng)導”等熟人要求轉賬、匯款的,務(wù)必通過(guò)多種途徑核實(shí)確認,不要未經(jīng)核實(shí)隨意轉賬匯款。

(總臺記者 孫薊濰 唐志堅 徐之昊 孫麗鵬 黃石臺)

來(lái)源:央視新聞客戶(hù)端

https://content-static.cctvnews.cctv.com/snow-book/index.html?item_id=13119823288096370648&toc_style_id=feeds_default&share_to=wechat&track_id=90b9c22d-183a-49a5-aeec-43040e3aaf3c

點(diǎn)擊查看 中國科普資源名錄 資源展示

點(diǎn)擊查看 中國科普資源名錄 資源需求


歡迎掃碼關(guān)注深i科普!

我們將定期推出

公益、免費、優(yōu)惠的科普活動(dòng)和科普好物!


聽(tīng)說(shuō),打賞我的人最后都找到了真愛(ài)。
做科普,我們是認真的!
掃描關(guān)注深i科普公眾號
加入科普活動(dòng)群
  • 參加最新科普活動(dòng)
  • 認識科普小朋友
  • 成為科學(xué)小記者
欧美精品v欧洲精品|国产三级视频在线播放线观看|91精品欧美一区|精品综合久久久久久98|亚洲自怕偷柏图