外媒路透指中國AI換臉詐騙,引發人們對AI技術恐助長金融犯罪的擔憂,這顯示照片、聲音和影像都可以被騙徒拿來利用,網路上的隱私和安全受到威脅。

陸媒南方日報則介紹了AI技術如何應用在新的騙局,以及有什麼新的詐騙方式?

⊕聲音合成:騙子透過騷擾電話錄音等,來提取某人聲音,獲取素材後進行聲音合成,再用偽造的聲音騙過對方。

⊕AI換臉:因為人臉效果更易取得對方信任,騙子用AI技術換臉,可以偽裝成任何人,再透過視頻方式進行信息確認。

⊕轉發微信語音:在盜取微信號後,騙子便向其好友「借錢」,為取得對方信任,他們會轉發之前的語音,進而騙取錢財。儘管微信沒有語音轉發功能,但他們透過提取語音文件或安裝非官方版本(插件),可實現語音轉發。

⊕AI篩選受騙人群:騙子根據所要實施的騙術,透過AI技術篩選受騙人群,別有用心地鎖定特定對象。例如,當進行金融詐騙時,經常蒐集投資訊息的人,就會成為他們潛在的目標。

壹蘋新聞網-投訴爆料

爆料網址:reporting.nextapple.com

爆料信箱:news@nextapple.com

★加入《壹蘋》Line,和我們做好友!

★下載《壹蘋新聞網》APP

★Facebook 按讚追蹤

壹蘋娛樂粉專壹蘋新聞網粉專


點擊閱讀下一則新聞 點擊閱讀下一則新聞
道瓊飆426點再創新高!美股強勢收紅續寫漲勢