10月13日,国家金融监督管理总局发布《关于警惕利用AI新型技术实施诈骗的风险提示》,提醒广大金融消费者警惕新型诈骗手段,维护个人及家庭财产安全。
当前,AI技术的广泛应用
为社会公众提供了
个性化、智能化的信息服务
但同时也给网络诈骗带来可乘之机
如不法分子通过
面部替换、语音合成等方式
制作虚假图像、音频、视频
仿冒他人身份实施诈骗
侵害消费者合法权益
划重点!
利用AI新型技术实施诈骗
主要有“拟声”“换脸”两种手段
即通过模拟他人声音或形象
骗取信任,进而诈骗钱财
案例提醒
PS艳照诈骗和裸聊诈骗
其实这是
不法分子获得个人照片后
将个人图像PS成"艳照"
甚至使用AI动态换脸技术
PS成"不雅视频"
再进行"敲诈勒索"
妄图“财源滚滚”
案例一
聪明反被聪明误
上海检察机关向媒体通报了一起案件:不法人员用合成的假艳照实施敲诈,最终锒铛入狱,少数被害人中招。犯罪嫌疑人孙某通过邮寄上百封勒索信件,将敲诈对象的头像与裸体美女PS在一起制作虚假床照,采用广撒网的方式实施敲诈,成功骗取38万元,未遂金额则高达3400多万。
近期,担任外地某公司董事长的周某在单位收到了一封匿名信件,打开信封,映入眼帘的赫然是一张自己和一不明女子躺在床上的裸照。与照片一起寄来的还有一封恐吓信,信件内容称:寄件人是某私家侦探社的一名调查员,受客户委托对周某进行跟踪调查。并且声称自己经过秘密取证已经偷拍到周某私生活上不光彩的录像带,威胁要将录像带交给客户,要求周某收到信件后三天内向指定的银行账户汇款38万元。
周某在接受当地警方调查时称:收到信件的周某虽然觉得事有蹊跷,自己并没有拍过这样的照片,但是考虑到这封信可能会对自己的家庭和事业带来负面影响,周某还是选择破财消灾,将38万元钱款汇入了对方的银行账户。事后又觉得自己可能受到诈骗,才向当地警方报案。
此类事件层出不穷
更甚至还出现这种PS诈骗团伙
他们已经形成一套完整的诈骗流程
警方提醒
1.凡是突然收到不明来路的照片、视频,做到不听、不信、不转账。
2.请注意保护个人及单位信息,尤其是自己和家人的正面照,以防被犯罪嫌疑人掌握从而实施精准诈骗或敲诈勒索。
3.如不慎被骗,注意保留图片、视频、文字、转账记录,及时拨打110报警。
来源:日照刑警