AI语音诈骗已走入现实


来源:纵横网 浏览量(1790) 2025-11-18 08:59:08

AI语音诈骗已走入现实_https://www.izongheng.net_人工智能_第1张

本文作者是Bramble Intelligence的人工智能研究员,参与了《2025年人工智能现状报告》(State of AI Report 2025)的编写

直到最近,构建一个能进行逼真的电话交谈的人工智能系统仍是一项艰巨的任务。开发者必须将语音识别、语言处理和语音合成等相互独立的工具整合在一起,并通过脆弱的电话通讯软件把它们连接起来。

如今情况已不同。随着实时原生语音AI模型的出现——例如OpenAI去年推出的RealTime API——曾经需要多个组件才能构建的系统,如今只需数分钟即可完成创建。

公开可用的代码可以将这些模型连接到电话线路上。AI模型能瞬间完成“聆听”、 “思考”并回应。最终生成一种合成语音,可以流利交谈、自然即兴反应,并以近似人类的方式持续对话。

过去一年间,大规模人工智能语音钓鱼诈骗已经从理论演变为现实。去年,英国科技公司Arup因为一起深度伪造诈骗被骗走2500万美元,另一宗针对思科(Cisco)的语音钓鱼攻击则成功窃取了其使用的云端客户关系管理系统中的信息。

过去需要专业知识才能实现的技术,如今已被打包成可任意直接利用的现成产品。低延迟原生语音模型消除了实时AI语音诈骗的最后一道技术壁垒。

在测试中,笔者只需几行指令就能让这样的系统表现得像一位打电话询问薪资事宜的HR经理,或一位警告账户可疑活动的防诈专员。由于AI能够推理并实时调整策略,其操控具有自适应性。

这种技术本身可以用于正当用途,如医疗随访、客户服务或语言教学。但这种易用性既能推动创新,也同样可能带来危害。理论上,一个操作者每天可以发起数十万通诈骗电话,每一通都针对特定目标量身定制。

这一威胁因ElevenLabs或Cartesia等平台日益逼真的效果和低廉成本而进一步加剧,这些平台只需极短的音频样本就能实现语音克隆。

就公众人物而言,在当事人毫不知情的情况下,收集其数小时音频并生成逼真的仿声是完全可行且相对容易的。根据美国联邦调查局(FBI)的说法,已有冒充政府官员的此类攻击。该机构警告公众,不应轻信任何自称来自美国高级官员的消息。

麻省理工学院(MIT)的风险资料库Risk Repository收录了1600多个AI风险案例,该数据库显示,过去5年,与欺诈相关的人工智能事件占比已从约9%上升至约48%。

这类网络犯罪的规模之大,意味着通过语音特征识别客户的语音验证系统如今已成为隐患。涉及敏感请求和大额交易的场景应采用不依赖声音特征的多重验证方式。

对我们其他人而言,结论很简单:电话那头的声音已不能证明对方是谁。我们已懂得要对电子邮件保持警惕,现在我们也必须学会怀疑听起来像人类的声音。未来,我们可能需要创建语音水印或数字签名来验证语音的真实性。

围绕人工智能的讨论有时会被框定为关乎人类存亡的议题,但最先影响我们的,将是那些看似微小的风险。

欺诈和冒充行为侵蚀着日常交流中的信任。这些看似寻常的犯罪,实则处于人工智能转型中的前沿。创造这些工具的智慧,也必须用于保证这些工具的安全。

生成式AI真正的颠覆——那种悄然、无形的颠覆——已经到来。它不会以超人智慧的形式宣告自己的到来,而是以一通电话的方式显现。

译者/何黎







THE END

版权声明:未经纵横网授权,严禁转载或镜像,违者必究。
特别提醒:如果文章内容、图片、视频出现侵权问题,请与本站联系撤下相关作品。
风险提示:纵横网呈现的所有信息仅作为学习分享,不构成投资建议,一切投资操作信息不能作为投资依据。本网站所报道的文章资料、图片、数据等信息来源于互联网,仅供参考使用,相关侵权责任由信息来源第三方承担。
本文地址: