父母发来视频聊天请求借钱被骗,接到领导工作电话要求打款被骗……随着AI技术的发展,“AI换脸”已成为新型网络诈骗的工具。近日,国家金融监督管理总局官网发布防范新型电信网络诈骗风险提示,其中提到警惕“AI换脸拟声”骗局,该骗术主要通过采集声音和面部信息,利用“换脸”“拟声”等技术合成虚假音视频从而实行诈骗。
8月9日,记者来到西安市公安局雁塔分局刑侦大队,和反诈中心民警一起进行一个“拐卖儿童”试验,从实例中拆解“AI换脸拟声”诈骗套路。
“我们每个人都应该提高防范意识,做好个人信息安全保护,对人脸、声音、指纹等信息数据要注意防护,不随意在社交平台传播。此外,上网时不登录来路不明的网站,对可能进行声音、图像甚至定位等信息采集的应用,要注意做好授权管理。”公安雁塔分局刑侦大队反诈中心民警杨颖说,“亲友之间在点对点沟通时,如果涉及金钱交易或者人身安全转移的请求,我们可以注意询问一些只有对方知道的问题,验证对方的真实性,切勿上当受骗。”(赵云龙 王若歆 袁大维)