機(jī)械社區(qū)
標(biāo)題: AI工具還有很多人沒用上, AI詐騙它就來啦! [打印本頁]
作者: panps 時間: 2023-5-23 10:54
標(biāo)題: AI工具還有很多人沒用上, AI詐騙它就來啦!
昨天一個新聞上熱搜了,內(nèi)容是 “ AI 詐騙 ” 。
這個熱搜的詞條,其實是有些夸大的,但里面實際發(fā)生的事兒,也的確離譜。
事情發(fā)生在福州,一位科技公司的老板,老郭,某天突然接到了個好友的微信視頻,說是自己的朋友在外地競標(biāo),需要 430 萬的保證金,想走他的公司賬戶過個賬。
老郭想著也不是啥大事兒,于是在確認(rèn)視頻通話里的人和聲音都是他朋友之后,就同意了。
隨后,對方就給老郭發(fā)了一張銀行卡轉(zhuǎn)賬成功的截圖,說是錢已經(jīng)轉(zhuǎn)到老郭的戶頭上了。
由于老郭之前已經(jīng)確認(rèn)了朋友的身份,在沒確認(rèn)錢到帳與否的情況下,也沒有多想,直接就把 430 萬轉(zhuǎn)到了好友給的銀行卡上。
整個過程不過短短十分鐘。。。
轉(zhuǎn)賬完成之后,當(dāng)老郭再次和好友打電話核實時,這才驚呼,剛才的一切,居然都是詐騙人員使用各種技術(shù)手段偽造的!
不僅好友視頻的人像是 AI 生成的,就連好友的音頻都是通過 AI 技術(shù)模擬的,好在警方跟銀行通力合作,截停了錢在銀行的走向,幫老郭止損了大部分損失。
你還別不信,現(xiàn)在的 AI 擬人和擬聲都非常簡單了,世超自己都能煉一個簡單的出來。
還記得之前咱們使用 AI 擬聲工具和 AI 視頻工具模擬的數(shù)字人蛋蛋嗎?
這個數(shù)字人視頻只使用了一張照片做素材,其中的動作和聲音都是使用 AI 生成的。
整個視頻制作訓(xùn)練花了不過數(shù)小時,而音頻在訓(xùn)練完模型后推理的時間不超過五分鐘。。。
可以說,在現(xiàn)在這個時代,不但是語音消息不保真了,這以后連視頻通話見到真人都不能信了。
警方?jīng)]有公布太多的細(xì)節(jié),估計是太細(xì)了容易被別的騙子當(dāng)教材學(xué)過去,但根據(jù)僅有的細(xì)節(jié),我們能分析出幾點:
①詐騙團(tuán)伙在給郭先生打視頻電話時,使用的就是他好友的微信號,把他朋友的微信號盜了;
②騙子掌握了比較多的郭先生朋友的圖片、音視頻信息,用來訓(xùn)練模型;
③騙子擁有實時渲染數(shù)字人的技術(shù),因為警方新聞中提到了郭先生和他朋友打的是微信視頻;
④騙子應(yīng)該對郭先生及其朋友的過往對話風(fēng)格有比較深入的了解,知道怎么跟郭先生溝通( 微信是僅能云同步很有限的聊天記錄的 )。
以上所有的條件,無論哪一個,具體到實施上,都是很有難度的操作。
但,它卻就這么真實的發(fā)生了。
這個案子,還真的沒那么簡單。
首先是百思不得其解的微信登錄問題。對于這點,各位大佬們都覺得這個其實不難,主要有兩個方法能夠做到。
一種方式是微信二維碼釣魚,另一種則是獲取Session ( 可以簡單理解成是 cookie ,能保持登錄狀態(tài) )。
微信二維碼釣魚這個不難理解,就是利用釣魚網(wǎng)站或者鏈接,讓受害者的朋友通過微信掃碼登錄電腦微信,這樣詐騙人就可以用自己的設(shè)備使用他朋友的微信了。( 不過其中一位老哥指出,微信異地掃碼登錄會觸發(fā)風(fēng)控 )
第二種獲取 Session ,只要受害者朋友的電腦上設(shè)置了微信自動登錄,那只要獲取相應(yīng)的 Session ,理論上就能在詐騙人的電腦上登錄受害者朋友的微信了。
不過出于安全考慮,咋獲取這個 Session ,這位業(yè)內(nèi)人士沒細(xì)說。
對了,還有另外一種簡單粗暴的方式,就是被盜號的人自己電腦是登錄微信的,電腦處于開機(jī)狀態(tài),但是被騙子用木馬遠(yuǎn)控了。
登錄微信之后,接下來的操作才是重頭戲。
詐騙人應(yīng)該 “ 蹲點 ” 了很久,知道被盜號者微信上誰有錢誰沒錢,跟誰關(guān)系好,事先挑好了下手對象。同時,騙子還對他的生活習(xí)慣非常了解,這樣才能趁對方不注意登上他的微信,進(jìn)行視頻通話詐騙。
而想要在微信視頻的同時 AI 換臉和變聲,詐騙人員還得將攝像頭和麥克風(fēng)的數(shù)據(jù),替換成 AI 換過臉和變過聲的數(shù)據(jù)流。
至于訓(xùn)練素材,極有可能是通過被盜號者自己的朋友圈或者與別人的聊天記錄獲取。
最后,結(jié)合所有獲取的信息,訓(xùn)練好素材,編造一個劇本來對受害者實施詐騙。
也就是說,這群詐騙人員,不僅有技術(shù),耐心也不差。
像這種詐騙,別說是家里的老人分辨不出來了,就算是神仙來了,都能給你晃迷糊。
不過朋友們還是給了大家一個安慰:像這次的詐騙事件,理論上技術(shù)可行,但終究還是一個小概率事件。
畢竟在這次的案件里,個人微信被盜用是更主要的原因,而這也是詐騙過程中需要花費(fèi)最多功夫的步驟。假如沒有這一步,受騙人必然會更加警惕,整個詐騙環(huán)節(jié)的漏洞也會更多。
想要讓騙子花那么多精力來騙你,前提條件是你值得。。。
但是,高策劃詐騙難度高,并不代表著低策劃詐騙就騙不到人了。
使用 AI 詐騙的案件現(xiàn)在其實已經(jīng)屢見不鮮了。
看看之前那個數(shù)字蛋蛋的制作過程就知道, AI 對于那些實施語音電信詐騙的人員來說,簡直不要太高效。
而且類似的詐騙案件在國內(nèi)國外也已經(jīng)層出不窮了。
之前就有一個國外的詐騙公司,使用 AI 模擬了 “ 卷福 ” 的音頻,打電話給一家新西班牙的小電影公司,稱想要和對方合作,并要求對方先打款 20 萬英鎊才能見面。
結(jié)果在電影公司付完錢之后,他們才發(fā)現(xiàn)這次事件,完完全全就是一場 AI 騙局。。。
這件事情讓我們非常擔(dān)心那些跟不上高速發(fā)展的科技的長輩們,他們可能很難相信正在跟自己視頻通話的兒女是假的,騙子找他們要錢可能會輕松得手。。。
在音視頻都不可信的情況下,以后或許要給父母一個密保問題了?梢愿嬖V父母,萬一微信自己找他們要錢,讓他們問一些只有你們自己才知道的細(xì)節(jié),比如:
“ 兒子,你小時候我經(jīng)常用衣架打你還是拖鞋打你? ”
這個問題最好也有陷阱,正確回答應(yīng)該是 “ 你用掃把打我 ” 。
除了多提高防范意識、多給長輩們科普最新騙術(shù),世超還是要啰嗦一下各位差友,咱們在對個人信息的敏感度上,還是得多上一點心。
隨著技術(shù),特別是 AI 技術(shù)的爆發(fā),個人信息泄露的危害已經(jīng)開始顯而易見地越來越大。大伙再這么躺,就純純是對騙子們的不尊重了。
到那時候,你泄露的個人的信息,指不定轉(zhuǎn)頭就把身邊的人騙了,這該上哪說理去?
作者: money 時間: 2023-5-23 16:37
人類玩死人類的時代到了。
作者: LYY-XXM 時間: 2023-5-29 12:52
剛聽說了AI變臉后微信視頻電話借錢
作者: 來自星星的猩猩 時間: 2023-6-7 14:49
大數(shù)據(jù)時代,個人的隱私該如何保護(hù),是各個層面都應(yīng)該思考的問題!
歡迎光臨 機(jī)械社區(qū) (http://e-learninguniversity.com/) |
Powered by Discuz! X3.4 |