AI科技日新月異帶給人類許多好處,例如黃文擇大師仙逝後,霹靂布袋戲即用AI模擬他的聲音進行配音,不但重現「素還真」獨特的嗓音,甚至可說重新定義了「音容宛在」四個字。音樂製作人包小柏也用過世愛女的3句話語,製作出擬真的AI聲音,多少撫慰他夫妻倆喪女之痛。
可惜水能載舟亦能覆舟,AI進步神速也讓語音詐騙更難防範,身分盜竊及信評分數觀察公司IdentityIQ告訴《福斯新聞台》說,只消在社群媒體或網路上取得你「3秒、10秒」或更久的語音,就能用AI合成極為相似的聲音;外媒記者親自測試,錄製10分鐘的語音再用AI合成,打電話給自己媽媽,結果就連親生母親也難辨真偽,差點上當。記者在電腦上打字,仿真的AI語音就會照念,完全不用開口就能與對方交談,不但不用擔心自己說話露出馬腳,任何人也都能輕易操作。
要進行所謂的「聲音複製」(Voice Cloning),AI語音模型需要輸入大量資料訓練,以往犯罪集團偏好從公眾人物、網紅網美身上下手,因為這些人的公開影音唾手可得,製作AI語音相對容易,不過語氣、情緒較難模仿,因此仍可聽出破綻。
然而以ChatGPT一炮而紅的人工智慧大廠OpenAI,3月底推出「Voice Engine(語音引擎)」AI模型,標榜僅需15秒音檔就能生成與本尊聲音極為相似的語音,甚至還帶有情緒,使辨別聲音更加困難,所幸語音引擎尚未全面對外開放使用。
成功大學統計學系教授許志仲說,AI影音犯罪日增,詐團也把目標從名人身上轉移到一般民眾,利用AI模擬家人聲音借錢等案例。藝人王仁甫日前現身說法,透露家人差點遭AI語音詐騙的故事,他說女兒樂樂之前接到市調電話,對方問她「家住哪裡」、「那妳多說一點話啊,說一下妳是在做什麼事情的人」等,沒多久季芹就接到樂樂聲音的電話打來問,「媽媽妳現在要去哪裡」、「媽媽我現在需要錢,妳可以轉錢給我嗎?」好在季芹並未上當,不過也讓王仁甫直呼「超恐怖」!
近來又傳出最新AI語音詐騙手法,社群媒體上可見許多「招募配音員」的廣告,號稱在家也能每案輕鬆賺進500至3000台幣,吸引民眾加入,其實是不折不扣的詐騙。通常對方會要求應徵者上傳一段自己講話的音檔,之後再告知通過測試,要求掃描QR碼或點選連結接案,一旦這麼做,LINE帳號就會立刻被登出盜用,對方再用先前提供的音檔生成AI語音,透過偷來的LINE帳號廣發訊息行騙。
AI語音詐騙難防,專家提出幾點建議有助民眾避免上當:
1. 不接不明來電,不理會對方急需用錢等催促,直接掛斷電話。
2. 家人親友間先約定好「通關密語」,接獲可疑來電時要求對方回答,或詢問只有本人才知道的問題,藉此確認身分。
3. 盡量避免在網路上公開有自己或家人語音的影片。
4. 對於對方所提要求謹慎以對,不隨之起舞,盡可能回撥電話給本人確認。
OpenAI、Google、微軟等7家AI科技巨頭,去年簽字同意遵守拜登政府的AI保障措施,確保這種新科技不被濫用,然而約束力令人質疑。
歐盟3月13日通過全球首個《人工智慧法案》(Artificial Intelligence Act),規範AI系統道德使用,不過也要等到2026上半年才會生效,且未涵蓋全球。各界日益重視AI之際,也正努力完善各層面,不過法律總趕不上科技,距離AI立法周全還有漫漫長路,民眾接電話時或許無須過度提防,但卻不可不慎。