@所有人当心!
当前,AI技术的广泛应用
为社会公众提供了
个性化、智能化的信息服务,
但同时也给网络诈骗带来可乘之机。
如不法分子通过
面部替换、语音合成等方式,
制作虚假图像、音频、视频,
仿冒他人身份实施诈骗,
侵害消费者合法权益。
10月13日,国家金融监督管理总局发布《关于警惕利用AI新型技术实施诈骗的风险提示》,提醒广大金融消费者警惕新型诈骗手段,维护个人及家庭财产安全。
划重点!
利用AI新型技术实施诈骗
主要有“拟声”“换脸”两种手段,
即通过模拟他人声音
或形象骗取信任,进而诈骗钱财。
诈骗套路解析
不法分子通常先以“网店客服”“营销推广”“招聘兼职”“婚恋交友”等为借口,通过微信、QQ、电话等方式联系消费者,采集发音、语句或面部信息。
再利用“拟声”“换脸”等技术合成消费者虚假音频或视频、图像,以借钱、投资、紧急救助等借口诱导其亲友转账汇款,或提供银行账户密码等敏感信息,随后立即转移资金。
此外,不法分子还可能对明星、专家、官员等音视频进行人工合成,假借其身份传播虚假消息,从而实现诈骗目的。
此类诈骗手段迷惑性、隐蔽性较强,
诈骗金额较高,
为保护广大金融消费者合法权益,
国家金融监督管理总局提示:
网络渠道“眼见”不一定为实。
在涉及资金往来时,
一个“声音很熟的电话”、
一段“貌似熟人的视频”
都可能是不法分子的诈骗套路,
消费者应提高警惕。
1.转账汇款务必核验对方身份。面对自称“熟人”“领导”等通过社交软件、电话等以各种理由诱导汇款,务必核验对方身份。在无法确认对方身份时,应尽量避免转账操作。
2.保护好照片、声音等个人信息。提高个人信息保护意识,不随意下载陌生软件、注册陌生平台或添加陌生好友。尽量避免在互联网过多暴露个人照片、声音、视频等信息,不贪图方便把身份证、银行卡照片等直接存放在手机内。如不慎被骗或遇可疑情形,注意保存证据立即向公安机关报案。
来源 | 国家金融监督管理总局网站