人工智能使长期运行的骗局更加有效

您肯定听说过这样的骗局:行凶者打电话给一位老人并假装是他们的孙子或其他近亲。通常的套路是装作窘迫的样子,假装自己处境困难,要求紧急转账解决问题。虽然许多祖父母会意识到这不是他们孙子的声音而挂断电话,但其他人不会注意到,只是太想帮助他们焦急的亲人,直接将钱汇入呼叫者的账户。

华盛顿邮报》周日的一篇报道显示,一些骗子通过部署能够克隆声音的人工智能技术,将骗局提升到了一个全新的水平,这使得目标更有可能落入骗局。

拿着电话的老人。

据邮报称,要启动这种更复杂的骗局版本,犯罪分子需要“只有几句话的音频样本”。然后样本通过许多广泛使用的在线工具之一运行,这些工具使用原始语音创建一个副本,只需输入短语即可指示它说出你想说的任何话。

来自联邦贸易委员会的数据表明,仅在 2022 年,就有超过 36,000 起所谓的冒名顶替者诈骗报告,其中超过 5,000 起是通过电话发生的。报告的损失达到 1100 万美元。

令人担心的是,随着 AI 工具变得更加有效和广泛可用,在未来的几个月和几年里,会有更多的人落入骗局。

然而,这个骗局仍然需要一些计划,一个坚定的犯罪者需要找到一个声音的音频样本,以及相关受害者的电话号码。例如,音频样本可以通过 TikTok 和 YouTube 等热门网站在线找到,而电话号码也可以在网络上找到。

骗局也可以采取多种形式。邮报举了一个例子,有人冒充律师联系了一对老年夫妇,告诉他们他们的孙子因涉嫌犯罪而被拘留,他们需要超过 15,000 美元的法律费用。然后,冒牌律师假装把电话交给他们的孙子,孙子的克隆声音请求帮助支付费用,他们按时照办了。

当他们的孙子那天晚些时候打电话给他们聊天时,他们才意识到自己被骗了。据认为,骗子可能从孙子发布的 YouTube 视频中克隆了他的声音,但很难确定。

一些人呼吁制造克隆声音的人工智能技术的公司对此类犯罪负责。但在此之前,似乎可以肯定的是,许多其他人会因这种邪恶的骗局而蒙受损失。

要聆听克隆声音的示例以了解它与原始声音的接近程度,请查看这篇数字趋势文章


Posted

in

by

Tags: