語音深偽與詐騙行為 AI人工智慧技術的雙刃劍

我們想讓你知道…AI語音技術的進步,不僅帶來了創新應用,也衍生了新的詐騙風險。我們必須從技術、法律、教育與個人防範等多方面入手,共同應對這一挑戰。

▲信用卡,盜卡,詐騙,電信詐騙,詐欺。(圖/視覺中國CFP)

▲隨著人工智慧(AI)技術的快速發展,語音合成與語音模仿技術的進步不僅帶來許多創新應用,也使得詐騙手法變得更加精緻且難以識破。(圖/視覺中國CFP)

●張瑞雄/台北商業大學前校長、叡揚資訊顧問

隨著人工智慧(AI)技術的快速發展,語音合成與語音模仿技術的進步不僅帶來許多創新應用,也使得詐騙手法變得更加精緻且難以識破。近期利用AI語音技術的詐騙案件逐漸增加,尤其是針對年長者的「祖父母詐騙」案件,更是層出不窮。此類詐騙手法利用人類情感的弱點,透過模仿親人聲音的方式,誘使受害者迅速轉帳,導致重大經濟損失。

AI技術提升 但監管不足造成問題

AI語音技術的提升,使得騙徒能夠利用極少量的語音樣本來精確模仿他人聲音。詐騙者可能透過公開的影片、語音郵件、甚至電話錄音來取得樣本,並快速生成與受害者親友相似的語音,進行詐騙。

例如詐騙者可能假冒受害者的孫子或朋友,聲稱自己遭遇緊急情況,例如車禍、入獄或醫療急救,迫切需要金錢援助。由於語音極為逼真,加上來電號碼也可能被偽造,受害者往往會在情緒驚恐下迅速匯款,而未進一步核實。

根據美國聯邦調查局(FBI)的數據,2023年美國的老年人因各類金融詐騙損失約34億美元,而AI語音詐騙的興起無疑加劇了這一問題。FBI警告,AI技術使詐騙更加「可信」,因為它能夠自動修正語音錯誤,降低識破詐騙的難度。

此外,語音詐騙的影響已超越個人財務損失,甚至影響到選舉、商業交易和名人形象,對社會的信任機制造成嚴重衝擊。

雖然AI語音技術帶來了許多正面的應用,如有聲書、數位客服、語音助理等,但目前的技術監管明顯不足。根據《消費者報告》(Consumer Reports)對AI語音工具的調查,很多並未設有有效的身份驗證機制,任何人僅需勾選一個「同意條款」的選項,即可自由複製他人的聲音。

消費者報告建議,AI語音技術公司應增強防範措施,例如要求用戶提供更嚴格的身份驗證;或在AI生成的語音中嵌入不可見的識別碼,讓執法單位能夠追蹤來源。另外開發AI工具來辨識是否為合成語音,特別是在銀行交易、法律程序等高風險場景中。政府也應制定相關法律,例如禁止未經授權的語音複製,並對技術提供商施加更嚴格的監管責任。

▼AI語音技術的提升,使得騙徒能夠利用極少量的語音樣本來精確模仿他人聲音。(圖/記者邱中岳翻攝)

▲▼小玉變臉幕後技術曝光,警方憂恐成詐騙手段。(圖/記者邱中岳翻攝)

AI帶來創新也伴隨風險 建立防範措施面對挑戰

面對AI語音詐騙的風險,個人和企業都應採取積極的防範措施,以降低受害機率。例如親人間應該建立一個家庭「安全詞」,當收到可疑的電話時,可要求對方說出這個詞以驗證身份。

AI詐騙往往利用受害者的情緒來操控行為,例如透過恐嚇、施壓來迫使其做出衝動決定。因此,在收到任何緊急求助電話時,應保持冷靜,不要立即匯款,而是使用其他通訊方式(如簡訊、社群媒體或親自聯繫)確認親友的安全。

對於年長者和不熟悉數位技術的人群,政府、金融機構和社會團體應積極推廣防詐騙教育,例如舉辦講座、發佈指導手冊,甚至設計互動式模擬訓練,讓人們能夠在實際情境中學習如何辨別AI語音詐騙。

金融機構、電信業者及其他可能受影響的企業,應積極採取措施來防範AI詐騙。例如銀行可設立額外的身份驗證步驟,如雙重認證(2FA)或生物識別技術,以確保交易的安全性。此外企業可與技術開發商合作,研發自動AI語音檢測系統,及時攔截可疑的語音詐騙行為。

AI語音技術的進步,不僅帶來了創新應用,也衍生了新的詐騙風險。我們必須從技術、法律、教育與個人防範等多方面入手,共同應對這一挑戰。

企業應強化技術監管,政府應建立相應法規,而個人則需要提高警覺,採取有效的防範措施,才能在這場AI詐騙的攻防戰中立於不敗之地。

▼AI詐騙往往利用受害者的情緒來操控行為,例如透過恐嚇、施壓來迫使其做出衝動決定。(圖/路透)

▲▼人工智慧(AI)。(圖/路透)

►►思想可以無大--喜歡篇文章? 歡迎加入「雲論粉絲團」看更多!

以上言論不代表本網立場。歡迎投書《雲論》讓優質好文被更多人看見,請寄editor88@ettoday.net或點此投稿,本網保有文字刪修權。

分享給朋友:

讀者迴響

關注我們

回到最上面