根据 Techradar 的最新研究报告,一种利用 AI 深度伪造(Deepfake)语音的新型诈骗正在全球范围内激增。一项针对美、英、加、法、德、西六国超过 1.2 万名消费者的调查显示,这种模拟熟人声音的来电已成为严重的社会威胁。
调查发现,约四分之一的美国受访者在过去一年内接到过此类 AI 伪造来电。更令人担忧的是,另有 24% 的人表示,自己根本无法从听感上区分电话里的声音究竟是真人还是人工智能。诈骗分子正利用低成本的生成式 AI 工具,将声音克隆技术“武器化”,专门冒充受害者的亲属或信任的联系人。
报告特别指出,这类诈骗对 55 岁以上的老年群体危害最大。由于该群体识别技术伪装的能力相对较弱,人均经济损失已达 1298 美元,是年轻受害者的三倍。目前,此类诈骗数量正以每年 16% 的复合增长率持续上升,形势不容乐观。
面对日益严峻的威胁,电信运营商的角色受到了广泛关注。多数受访者认为诈骗分子目前在技术较量中占据上风,并呼吁政府出台更严格的法规。安全专家强调,面对防御难度极高的 AI 语音克隆,不能仅靠个人识别,运营商必须加快部署“AI 盾牌”系统,利用技术手段过滤非法合成语音,以应对这场失控的“AI 军备竞赛”。