国家金融监管总局发布关于警惕利用AI新型技术实施诈骗的风险提示,当前,AI技术的广泛应用为社会公众提供了个性化、智能化的信息服务,也给网络诈骗带来可乘之机。如不法分子通过面部替换、语音合成等方式,制作虚假图像、音频、视频,仿冒他人身份实施诈骗,侵害消费者合法权益。国家金融监督管理总局发布消费者权益保护风险提示,提醒广大金融消费者警惕新型诈骗手段,维护个人及家庭财产安全。
利用AI新型技术实施诈骗主要有“拟声”“换脸”两种手段,即通过模拟他人声音或形象骗取信任,进而诈骗钱财。不法分子通常先以“网店客服”“营销推广”“招聘兼职”“婚恋交友”等为借口,通过微信、QQ、电话等方式联系消费者,采集发音、语句或面部信息。再利用“拟声”“换脸”等技术合成消费者虚假音频或视频、图像,以借钱、投资、紧急救助等借口诱导其亲友转账汇款,或提供银行账户密码等敏感信息,随后立即转移资金。此外,不法分子还可能对明星、专家、官员等音视频进行人工合成,假借其身份传播虚假消息,从而实现诈骗目的。