外媒路透指中國AI換臉詐騙,引發人們對AI技術恐助長金融犯罪的擔憂,這顯示照片、聲音和影像都可以被騙徒拿來利用,網路上的隱私和安全受到威脅。
陸媒南方日報則介紹了AI技術如何應用在新的騙局,以及有什麼新的詐騙方式?
⊕聲音合成:騙子透過騷擾電話錄音等,來提取某人聲音,獲取素材後進行聲音合成,再用偽造的聲音騙過對方。
⊕AI換臉:因為人臉效果更易取得對方信任,騙子用AI技術換臉,可以偽裝成任何人,再透過視頻方式進行信息確認。
⊕轉發微信語音:在盜取微信號後,騙子便向其好友「借錢」,為取得對方信任,他們會轉發之前的語音,進而騙取錢財。儘管微信沒有語音轉發功能,但他們透過提取語音文件或安裝非官方版本(插件),可實現語音轉發。
⊕AI篩選受騙人群:騙子根據所要實施的騙術,透過AI技術篩選受騙人群,別有用心地鎖定特定對象。例如,當進行金融詐騙時,經常蒐集投資訊息的人,就會成為他們潛在的目標。
爆料信箱:news@nextapple.com
★加入《壹蘋》Line,和我們做好友!
★下載《壹蘋新聞網》APP
★Facebook 按讚追蹤
點擊閱讀下一則新聞
台股本週成交額達1.8兆 投資者情緒回暖