警惕人工智能 AI 語(yǔ)音詐騙電話


在日本,被稱為“機(jī)器人之父”的森昌弘于1970年測(cè)試了人對(duì)機(jī)器人的好感度。機(jī)器人的外形和行為越像人,好感度就越高,但超過(guò)一定程度就會(huì)變成強(qiáng)烈的反感。如果徹底無(wú)法區(qū)分機(jī)器人和人,這種反感就會(huì)重新轉(zhuǎn)化為好感。
最近,加拿大連續(xù)發(fā)生新型電話詐騙案。騙子打電話假冒受害人的親戚聲音,聲稱自己被關(guān)在拘留所里需要匯款,騙取了大量資金。不過(guò),這個(gè)“親戚”的聲音其實(shí)是通過(guò)人工智能(AI)技術(shù)制作的深度偽造音頻。雖然幾十年前就有用人聲朗讀文字的技術(shù),但發(fā)音和語(yǔ)調(diào)并不完美。然而,通過(guò)將該技術(shù)與 AI 相結(jié)合,深度偽造音頻技術(shù)已經(jīng)達(dá)到了驚人的水平,可以輕松地混淆人類對(duì)真實(shí)和虛假聲音的感知。
深度偽造是一種通過(guò)使用現(xiàn)有數(shù)據(jù)進(jìn)行深度學(xué)習(xí)訓(xùn)練的技術(shù)來(lái)合成虛假聲音、圖像和視頻的方法。兩年前,制作一個(gè)人的 AI 聲音需要幾個(gè)小時(shí)的語(yǔ)音文件和幾天的時(shí)間。而現(xiàn)在,只需要有該人的幾句話語(yǔ)音,就可以在幾秒鐘內(nèi)生成一個(gè)逼真的 AI 聲音。此外,通過(guò)社交媒體上的短視頻或語(yǔ)音信息也可以進(jìn)行操作?,F(xiàn)在,人們甚至可以在不知情的情況下被攻擊者利用這種技術(shù)進(jìn)行詐騙。
深度偽造技術(shù)還可以制作出非常逼真的圖像和視頻,例如將明星的臉與別人的裸體合成,或?qū)e人有問(wèn)題的講話處理成好像某著名政治家講話一樣的案例。OpenAI 的圖像生成 AI“DALL-E 2”創(chuàng)造了前所未有的圖像,超越了圖像合成的能力。美國(guó)甚至有預(yù)測(cè)稱,AI 很快就會(huì)占領(lǐng)色情市場(chǎng),因?yàn)樗梢灾谱鞒鲎钔昝赖难輪T。
深度偽造技術(shù)還可以在不需要本人親自錄音的情況下制作大量語(yǔ)音內(nèi)容,成為一種有效的手段。然而,盡管人們對(duì) AI 技術(shù)感到驚奇和神奇,但也有人開(kāi)始惡意利用這種技術(shù)。
那么,如何警惕AI電話詐騙呢?以下是一些建議:
1.保持警惕,不輕信電話。尤其是陌生號(hào)碼或者不熟悉的人,要保持警惕,多做確認(rèn),避免上當(dāng)受騙。
2.保護(hù)個(gè)人信息。不隨意透露個(gè)人信息,不在社交媒體等公共平臺(tái)上留下太多的個(gè)人信息。
3.提高AI深度偽造技術(shù)的認(rèn)知。了解AI深度偽造技術(shù)的運(yùn)作方式,能夠更好地防范此類威脅。
4.利用科技解決科技問(wèn)題。一些公司已經(jīng)推出了一些AI識(shí)別技術(shù),可以辨別出AI聲音的特征,如果發(fā)現(xiàn)疑似AI詐騙電話,可以使用這些技術(shù)進(jìn)行辨別。
雖然人工智能技術(shù)的發(fā)展給我們帶來(lái)了很多便利和驚喜,但是也需要我們提高警惕,加強(qiáng)防范,才能讓科技真正為我們所用,而不是被利用。
未來(lái)的世界需要加強(qiáng)對(duì)AI技術(shù)的監(jiān)管和控制,同時(shí)加強(qiáng)對(duì)公眾的教育,提高人們的安全意識(shí)。只有這樣,我們才能更好地享受AI技術(shù)帶來(lái)的好處,而不受到它的負(fù)面影響。