近期,安全公司Group-IB和Google旗下Mandiant等机构警告称,基于AI语音克隆技术的“深度伪造电话”(deepfake vishing)诈骗活动日益猖獗,诈骗者仅用受害人极短的音频样本即可伪造其声音,向目标施以欺诈。常见模式包括冒充亲友、领导或同事,诱使受害人转账、泄露凭证或访问恶意网站。
此类攻击手法流程明确:黑客收集网上公开的音频,通过AI语音合成平台(如Tacotron 2、Vall-E等)生成高度逼真的仿声,再结合号码伪造和实时语音互动等技法,极大提升欺诈的可信度和应变能力。尽管不少平台设有限制,但据调查,相关防范措施很容易被绕过。
Mandiant通过红队演练证实,即便只依赖公开资料和现有IT故障为借口,受害者出于对熟悉声音的信任,也极易在毫无防备下中招,执行高风险操作。一旦受害人按指示转账或泄密,损失通常难以追回。
专家预计,随着AI语音合成技术日益成熟,实时深度伪造电话攻击将更常见,公众和机构需提升警惕,加强身份验证措施。