近年来
随着人工智能技术的进步
一些不法分子开始利用AI技术
融合他人面孔和声音
制造非常逼真的合成图像
来实施新型网络诈骗
这类骗局常常会在短时间内
给被害人造成较大损失
近日
陕西西安张女士
就遭遇了这样一起“AI换脸”诈骗
陕西西安财务人员张女士
接到“老板”视频通话
要求她转账186万元到指定账号
张女士表示
视频中“老板”称款项非常着急
因为声音还有视频图像
都跟他人长得一样的
所以就更确信这笔款是老板说的
之后就直接转账了
转账后
张女士按照规定将电子凭证
发到了公司财务内部群里
然而出乎意料的是
群里的老板看到信息后
向她询问这笔资金来由
称并没有发过视频,也没说过这笔转账
意识到被骗的张女士
连忙报警求助
警方立刻对接反诈中心
联系相关银行进行紧急止付
最终保住了大部分被骗资金156万元
那么
AI换脸到底能有多逼真?
快速AI“换脸”
仅通过一张照片就可完成
技术人员首先用手机给记者拍了一张脸部照片,导入到AI人工智能软件后,惊讶的是,虽然电脑摄像头前的是技术人员,但输出的却是测试者的照片,可以说是“一键换脸”,不需要复杂的环境和解压操作。
更令人惊讶的是
随着技术人员面部表情变化
照片上的脸也跟着一起发生了相应变化
如果更进一步地将照片存下来
能够存储大量的照片的话
后期可以把这张照片
合成一段简短的视频发布出来
专家表示,针对诈骗
主要是通过点对点的视频通话
这时如果采用换脸技术
和声音合成做实时的换脸诈骗的话
想要完成这些技术操作
就需要投入很强的技术支持
AI技术发展
除了在多层面加强监管规范外
日常生活中我们该如何防范?
学会这几招
轻易识别AI“换脸换声”
↓↓↓
一、脸部挥手、摁鼻子、摁脸,观察其面部变化
可以要求对方在视频对话时,在脸部的面前通过挥手方式,摁鼻子、摁脸,去进行一个识别,实时伪造的视频,因为它要对这个视频进行实时的生成和处理和AI的换脸。那么在挥手过程中,就会造成这种面部的数据的干扰,他所伪造的这个人脸会产生一定的抖动或者是一些闪现,或是一些异常情况。
二、问一些只有对方知道的问题
点对点的沟通中可以问一些只有对方知道的问题,验证对方的真实性。
三、加强个人信息保护,提高防范意识
日常生活中加强对人脸、声纹、指纹等生物特征数据的安全防护,另外做好个人的手机、电脑等终端设备的软硬件的安全管理;不要登录来路不明的网站;对可能进行声音、图像甚至视频和定位采集的应用,做好授权管理。
转扩提醒身边人
谈钱需谨慎,遇到汇款转账要求
务必多留心眼
保持警惕,远离诈骗!
来源 | 央视新闻客户端 人民网科普