AI模擬變聲詐騙頻頻發(fā)生!耳聽為虛謹慎核實

[日期:2024-06-03] 作者:信息技術(shù) 次瀏覽 [字體: ]

“只要念兩個例句,你就可以讓AI代替你說話了?!辈粌H如此,現(xiàn)在的技術(shù)已經(jīng)可以在保證聲音高保真的同時,模擬你的音色,甚至細致到你說話時的口音、重音、換氣的節(jié)奏等等,這完全可以滿足實時的互動需求。違法犯罪份子也利用了這一技術(shù)動起了歪心思,制造了多起語音詐騙案。


圖源:視覺中國(VCG41N1417677772)

案例一:聲音像老板就一定是老板?

某公司財務小王接到領(lǐng)導電話,要求立刻給供應商轉(zhuǎn)款2萬元,并將轉(zhuǎn)賬信息以郵件形式發(fā)送,轉(zhuǎn)款理由是避免繳納滯納金。由于老板的口音十分逼真,小王信以為真,在1小時內(nèi)轉(zhuǎn)款完成,后發(fā)現(xiàn)被騙。

案例二:“女兒”找母親要三十萬求救?

去年11月,王欣的母親突然接到一通“王欣”打來的電話,讓母親轉(zhuǎn)賬30萬元,著急的王欣母親立馬就打算給對方轉(zhuǎn)錢,被同事攔了下來。

同事建議先給王欣打電話,確認情況,結(jié)果真實的王欣正在睡午覺,啥事也沒,而那通“求救電話”就是騙子利用王欣的AI克隆聲音制作的。

案例三:哥哥我啊,差點就騙到你啦!

江蘇警方接到一工廠員工報警稱,其同事可能遭遇詐騙。民警趕到現(xiàn)場時,被騙女子情緒激動,不愿配合調(diào)查。

民警一直堅持耐心勸導,終于在女子與騙子通話近3個小時后將其攔下。而剛掛斷騙子來電后,女子的哥哥就打來電話詢問是否是要向其借錢。

民警立刻識破這是一種利用AI技術(shù)進行詐騙的新方式,騙子通過AI合成聲音,甚至影像向受害人親友借錢。同時,在通話過程中,騙子還盜取了女子身份進行網(wǎng)貸。最終,民警聯(lián)系網(wǎng)貸平臺中斷放款,成功挽回女子5萬元損失。

以上三個案例,均是違法犯罪份子利用AI合成音頻的技術(shù)實施的詐騙。然而,這種AI合成聲音的詐騙還是有很多破綻的,在遇到涉及轉(zhuǎn)賬或信息安全等敏感操作時,多留個心眼犯罪分子就難得逞。

AI合成聲音有以下幾個破綻:

1.AI合成聲音不能長時間快速說話;

2.AI合成聲音在讀某些字詞時會有一些怪異的語調(diào);

3.詐騙犯在使用AI合成聲時會營造緊張的情景試圖讓你忽略掉這些瑕疵。

因此,日常遇上涉及這類敏感操作的語音溝通,做到以下幾點,就能一定程度防止上當受騙:

1.保持鎮(zhèn)定,耐心詢問情況,仔細聽當事人口音有無異樣狀況;

2.要求進行視頻交流;

3.多做一些試探性的舉動如講講家鄉(xiāng)話等,聽聽有沒有露出破綻;

4.用常用的聯(lián)系方式與對方再聯(lián)系一遍進行確認;

5.注意自己的以及身邊人生物信息的保護,避免泄露聲紋信息等。太平洋電腦網(wǎng)