诈骗者找到了一种利用人工智能 (AI) 模仿受害者亲人的声音并通过电话向他们要钱的新方法。
来自芝加哥的 19 岁 TikTok 用户埃迪·康伯巴奇 (Eddie Cumberbatch) 接到了父亲打来的奇怪电话,告知他遭遇了车祸。艾迪很快意识到有人用了人工模仿他的声音来让他的家人相信他急需钱。如果Eddie的家人能够避免落入骗局的陷阱,其他许多人则没有那么幸运。
身份盗窃诈骗(诈骗者冒充您信任的人)已经是一种常见的欺诈形式。然而,人工智能技术的使用使这些骗局变得更加复杂且更难以检测。美国联邦贸易委员会 (FTC) 报告称,2022 年,假冒诈骗(包括涉及人工智能生成声音的诈骗)给受害者造成了 26 亿美元的损失。就在几周前,诈骗者利用这项技术从受害者那里窃取了 560,000 欧元。
诈骗者可以在几秒钟内克隆您亲人的声音
如今,人工智能允许骗子仅用几秒钟的音频来克隆声音,并在社交媒体上找到一个人的声音录音,以创建逼真的模仿。
迈克菲的调查发现70% 的成年人无法区分克隆声音和真实声音,这给诈骗者留下了令人印象深刻的回旋余地。此外,人们不知不觉地在网上公开了自己的真实声音,53% 的成年人每周都会分享他们的语音数据。
这些骗局可能是毁灭性的,因为受害者可能相信他们的亲人正处于困境中,并且愿意寄钱来帮助他们。迈克菲发现,45% 的受访者表示,他们会回复听起来像是来自朋友或家人的语音邮件或语音留言。受害者已经因这些诈骗损失了大量金钱,有些人损失超过 5,000 美元。
另请阅读–Meta 推出 Voicebox,一种能够复制任何人类声音的人工智能
重现您所爱之人的声音已成为一件轻而易举的事
虽然人工智能用于诈骗已经有一段时间了,但它变得更加容易获取和负担得起,使得网络犯罪分子更容易利用它。 Murf、Resemble 和 ElevenLabs 等平台允许诈骗者使用文本转语音技术创建逼真的声音。
通过上传语音样本,诈骗者可以生成与目标的声音非常匹配的声音。这项技术大大减少了实施这些骗局所需的时间和精力,使欺诈者更有利可图。
很遗憾,很难抓住这类骗子由于他们在世界不同地区开展行动,因此几乎没有留给警察机构采取行动的信息。受害者往往没有多少追索权,而且大多数案件都没有得到解决。
为了保护自己免受这些骗局的侵害,比以往任何时候都更加重要保持警惕并检查任何紧急的金钱请求。退后一步,提出只有真实的人才会知道的具体问题,可以帮助确认与您交谈的人的真实性。联邦贸易委员会建议暂停通话,并单独联系该家庭成员,以核实其故事的真实性。
幸运的是,人工智能不仅仅被诈骗者使用。研究人员还创建了一个能够浪费骗子时间的人工智能,通过与他们的通讯员进行电话交谈。
询问我们最新的!