AI科技日新月異帶給人類許多好處,例如黃文擇大師仙逝後,霹靂布袋戲即用AI模擬他的聲音進行配音,不但重現「素還真」獨特的嗓音,甚至可說重新定義了「音容宛在」四個字。音樂製作人包小柏也用過世愛女的3句話語,製作出擬真的AI聲音,多少撫慰他夫妻倆喪女之痛。

霹靂布袋戲利用AI讓黃文擇大師的生動配音復活。翻攝自facebook.com/dapil
霹靂布袋戲利用AI讓黃文擇大師的生動配音復活。翻攝自facebook.com/dapil

可惜水能載舟亦能覆舟,AI進步神速也讓語音詐騙更難防範,身分盜竊及信評分數觀察公司IdentityIQ告訴《福斯新聞台》說,只消在社群媒體或網路上取得你「3秒、10秒」或更久的語音,就能用AI合成極為相似的聲音;外媒記者親自測試,錄製10分鐘的語音再用AI合成,打電話給自己媽媽,結果就連親生母親也難辨真偽,差點上當。記者在電腦上打字,仿真的AI語音就會照念,完全不用開口就能與對方交談,不但不用擔心自己說話露出馬腳,任何人也都能輕易操作。

記者實地測試用AI生成語音。翻攝自福斯新聞網
記者實地測試用AI生成語音。翻攝自福斯新聞網

要進行所謂的「聲音複製」(Voice Cloning),AI語音模型需要輸入大量資料訓練,以往犯罪集團偏好從公眾人物、網紅網美身上下手,因為這些人的公開影音唾手可得,製作AI語音相對容易,不過語氣、情緒較難模仿,因此仍可聽出破綻。

然而以ChatGPT一炮而紅的人工智慧大廠OpenAI,3月底推出「Voice Engine(語音引擎)」AI模型,標榜僅需15秒音檔就能生成與本尊聲音極為相似的語音,甚至還帶有情緒,使辨別聲音更加困難,所幸語音引擎尚未全面對外開放使用。

OpenAI推出的語音引擎能生成極為擬真的AI人聲。路透
OpenAI推出的語音引擎能生成極為擬真的AI人聲。路透

成功大學統計學系教授許志仲說,AI影音犯罪日增,詐團也把目標從名人身上轉移到一般民眾,利用AI模擬家人聲音借錢等案例。藝人王仁甫日前現身說法,透露家人差點遭AI語音詐騙的故事,他說女兒樂樂之前接到市調電話,對方問她「家住哪裡」、「那妳多說一點話啊,說一下妳是在做什麼事情的人」等,沒多久季芹就接到樂樂聲音的電話打來問,「媽媽妳現在要去哪裡」、「媽媽我現在需要錢,妳可以轉錢給我嗎?」好在季芹並未上當,不過也讓王仁甫直呼「超恐怖」!

王仁甫(右)與季芹夫婦差點被AI生成的女兒聲音詐騙。彭欣偉攝
王仁甫(右)與季芹夫婦差點被AI生成的女兒聲音詐騙。彭欣偉攝

近來又傳出最新AI語音詐騙手法,社群媒體上可見許多「招募配音員」的廣告,號稱在家也能每案輕鬆賺進500至3000台幣,吸引民眾加入,其實是不折不扣的詐騙。通常對方會要求應徵者上傳一段自己講話的音檔,之後再告知通過測試,要求掃描QR碼或點選連結接案,一旦這麼做,LINE帳號就會立刻被登出盜用,對方再用先前提供的音檔生成AI語音,透過偷來的LINE帳號廣發訊息行騙。

許多廣告假借招募配音員,騙取聲音及LINE帳號行騙。翻攝自臉書網路配音交流社團
許多廣告假借招募配音員,騙取聲音及LINE帳號行騙。翻攝自臉書網路配音交流社團

AI語音詐騙難防,專家提出幾點建議有助民眾避免上當:

1. 不接不明來電,不理會對方急需用錢等催促,直接掛斷電話。

2. 家人親友間先約定好「通關密語」,接獲可疑來電時要求對方回答,或詢問只有本人才知道的問題,藉此確認身分。

3. 盡量避免在網路上公開有自己或家人語音的影片

4. 對於對方所提要求謹慎以對,不隨之起舞,盡可能回撥電話給本人確認。

藝人包小柏(左)用AI生成過世愛女聲音。翻攝粉絲頁、IG
藝人包小柏(左)用AI生成過世愛女聲音。翻攝粉絲頁、IG

OpenAI、Google、微軟等7家AI科技巨頭,去年簽字同意遵守拜登政府的AI保障措施,確保這種新科技不被濫用,然而約束力令人質疑。

歐盟3月13日通過全球首個《人工智慧法案》(Artificial Intelligence Act),規範AI系統道德使用,不過也要等到2026上半年才會生效,且未涵蓋全球。各界日益重視AI之際,也正努力完善各層面,不過法律總趕不上科技,距離AI立法周全還有漫漫長路,民眾接電話時或許無須過度提防,但卻不可不慎。

查核中心呼籲民眾對不明電話毋須過度提防。翻攝自台灣事實查核中心
查核中心呼籲民眾對不明電話毋須過度提防。翻攝自台灣事實查核中心

點擊閱讀下一則新聞 點擊閱讀下一則新聞
不喝咖啡+久坐=早死? 來看研究怎麼說