新型詐騙震撼美國當局,歹徒使用網路上垂手可得、幾可亂真的AI語音複製工具,假冒家庭成員來詐騙親人。

法新社報導,專家表示,AI最大的危險是模糊了真實和虛幻的界線,讓網路罪犯能有廉價又有效的技術來散播假訊息。

以迪斯特法諾(Jennifer DeStefano)為例,當時女兒在外地滑雪,她接到電話「100%」確定那是她15歲的女兒。

迪斯特法諾4月告訴當地電視台:「問題不是那是誰,那就是她的聲音…她哭起來就是那樣。」「我沒有一秒鐘懷疑過。」

還好迪斯特法諾幾分鐘後就連絡上真正的女兒,解除虛驚,也把案件通報警方調查,但這個案例充份顯示利用AI「複製」真人語音的網路犯罪有多可怕。

 

在美國等9個國家針對7000人的民調中,1/4表示自己遇過AI語音詐騙,或聽過別人有類似經驗。

這份由美國資安公司邁克菲實驗室(McAfee Labs)上月發布的民調顯示,70%受訪者表示,沒有信心能「分辨真假語音」。

加州大學柏克萊分校資訊學院教授法瑞德(Hany Farid)告訴法新社:「因為現在製作高仿真的語音非常容易…網路上幾乎無人能倖免。這些詐騙正廣為流行。」

 

 Blackbird.AI 人工智慧公司執行長卡利德(Wasim Khaled)指出,目前網路能搜到多款免費應用程式,可用來合成仿真語音,只要有本人短短幾秒的講話聲音,就可複製合成,平常在社群平台上傳的影音,可能被歹徒偷去用於電話詐騙。

這些「複製」的人聲可能傳送語音訊息,甚至可以用來在電話中跟人對話。

美國當局警告,最近常見的是「爺奶詐騙」,模仿孫兒、孫女的語音打電話給長輩,謊稱亟需用錢,向阿公阿嬤求助,「例如發生車禍、被警察拘留,需要籌措保釋金等等。」許多年長民眾聽到親人聲音,深信不疑,立刻匯款。

芝加哥19歲青年艾迪就有這樣親身經歷,他祖父接到詐騙電話,以為他發生車禍要賠大錢,甚至想要拿自家房子去貸款籌錢,還好騙局在他貸款之前就被拆穿。這種「假語音、真詐財」案件正在增加中。

今年初AI新創公司ElevenLabs坦承自家語音合成工具可被用於「惡意用途」,先前就有用戶發布透過「深偽技術」(Deepfake)合成的語音,假冒英國女星艾瑪華森(Emma Watson)讀希特勒自傳《我的奮鬥》(Mein Kampf)。

創投公司Team 8科技主管塔賀奇堡(Gal Tal-Hochberg)受訪指出:「網路上看到的東西你都不能輕易相信,我們已到了這種程度。」「人類需要研發一種技術,能讓人分辨跟你對話的對象,是你認識的真人。」(綜合外電、中央社報導)

 

壹蘋新聞網-投訴爆料

爆料網址:reporting.nextapple.com

爆料信箱:news@nextapple.com

★加入《壹蘋》Line,和我們做好友!

★下載《壹蘋新聞網》APP

★Facebook 按讚追蹤

壹蘋娛樂粉專壹蘋新聞網粉專


點擊閱讀下一則新聞 點擊閱讀下一則新聞
日本政府擬2/14成立新機構 負責評估AI安全性