詐騙者找到了一種利用人工智慧 (AI) 模仿受害者親人的聲音並透過電話向他們要錢的新方法。

來自芝加哥的 19 歲 TikTok 用戶 Eddie Cumberbatch 接到了父親打來的奇怪電話,告知他遭遇了車禍。艾迪很快意識到有人使用了人工模仿他的聲音來讓他的家人相信他急需錢。如果Eddie的家人能夠避免落入詐騙的陷阱,其他許多人則沒有那麼幸運。
身分盜竊詐騙(詐騙者冒充您信任的人)已經是一種常見的詐欺形式。然而,人工智慧技術的使用使這些騙局變得更加複雜且更難以檢測。美國聯邦貿易委員會 (FTC) 報告稱,2022 年,假冒詐騙(包括涉及人工智慧生成聲音的詐騙)給受害者造成了 26 億美元的損失。詐騙者利用這項技術從受害者那裡竊取了 56 萬歐元。
詐騙者可以在幾秒鐘內複製您親人的聲音
如今,人工智慧允許詐騙者僅用幾秒鐘的音訊來克隆聲音,並在社交媒體上找到一個人的聲音錄音,以創建逼真的模仿。
麥克菲的調查發現70% 的成年人無法區分複製聲音和真實聲音,這給詐騙者留下了令人印象深刻的迴旋餘地。此外,人們不知不覺地在網路上公開了自己的真實聲音,53% 的成年人每週都會分享他們的語音數據。

這些騙局可能是毀滅性的,因為受害者可能相信他們的親人正處於困境中,並且願意寄錢來幫助他們。麥克菲發現,45% 的受訪者表示,他們會回覆聽起來像是來自朋友或家人的語音郵件或語音留言。受害者已經因這些詐騙而損失了大量金錢,有些人損失超過 5,000 美元。
另請閱讀–Meta 推出 Voicebox,一種能夠複製任何人類聲音的人工智慧
重現您所愛之人的聲音已成為一件輕而易舉的事
雖然人工智慧用於詐騙已經有一段時間了,但它變得更加容易獲取和負擔得起,使得網路犯罪分子更容易利用它。 Murf、Resemble 和 ElevenLabs 等平台允許詐騙者使用文字轉語音技術創造逼真的聲音。
透過上傳語音樣本,詐騙者可以產生與目標的聲音非常匹配的聲音。這項技術大大減少了實施這些騙局所需的時間和精力,使詐欺者更有利可圖。
很遺憾,很難抓住這類騙子,因為他們在世界不同地區開展業務,幾乎沒有留下可供警察部門採取行動的訊息。受害者往往沒有太多追索權,而且大多數案件都沒有解決。
為了保護自己免受這些騙局的侵害,比以往任何時候都更重要保持警覺並檢查任何緊急的金錢請求。退後一步,提出只有真實的人才會知道的具體問題,可以幫助確認與您交談的人的真實性。聯邦貿易委員會還建議暫停電話並單獨聯繫該家庭成員,以核實其故事的真實性。
幸運的是,人工智慧不僅僅被詐騙者使用。研究人員還創建了一個能夠浪費騙子時間的人工智慧,透過與他們的通訊員進行電話交談。
詢問我們最新的!
2024 年最好的智慧型手機是什麼?有幾種型號正在競爭中,完全值得在我們的選擇中佔有一席之地。想要讓智慧型手機脫穎而出非常困難,因為需要考慮很多標準。系統、電源、...
智慧型手機購買指南