最近
AI(人工智能)火了
AI绘画、AI换脸、AI歌手
……
在抖音、b站等平台
你肯定都刷到过
然而这些AI的运用
或涉及侵权甚至违法!
日前
央视新闻微信公众号
发布了一篇关于AI歌手是否侵权的文章
其中提到
AI歌手在未经相关授权的情况下
有可能涉嫌侵权
↓↓↓
AI歌手火速“出圈”的同时,也衍生出了一系列新问题。有业界人士认为,在未经相关授权的情况下,训练AI歌手时使用的大量歌曲是否侵犯了著作权?
《中华人民共和国著作权法》明确,使用他人已经合法录制为录音制品的音乐作品,再去制作录音制品,可以不经著作权人许可,但应当按照规定支付报酬;著作权人声明不许使用的不得使用。
另外,有法律界人士告诉记者,如果仅仅是歌手的音色或者唱腔,是不受著作权法保护的。不过,也有律师在采访中表示:在民法典中,对声音的保护是参照肖像权保护进行的,而对肖像权保护有明确的规定——那就是不允许进行伪造。
所以,AI歌手在未经相关授权的情况下,有可能涉嫌侵权。同时,AI歌手也可能会造成故意误导、混淆或者是形成假冒别人名义等行为,这些都可能会涉嫌不正当竞争。
此外
在不法分子手里
AI换脸等技术也摇身一变
成了诈骗手段
前些日子
话题#AI诈骗正在爆发#
冲上微博热搜
近日,内蒙古包头警方发布一起利用AI实施电信诈骗的典型案例。
来自福建的郭先生是一家科技公司的法人代表。今年4月,他的好友突然通过微信视频联系他,称自己的朋友在外地竞标,需要430万元保证金,想借用郭先生公司的账户走账。
基于对好友的信任,加上已经视频聊天“核实”了身份,郭先生在10分钟内,先后分两笔把430万元转到了对方的银行账户上。
事后,郭先生拨打好友电话才得知被骗,原来骗子通过AI换脸和拟声技术,佯装好友对其实施诈骗。“当时是给我打了视频的,我在视频中也确认了面孔和声音,所以才放松了戒备。”郭先生事后说。
当我们遇到AI诈骗
应该如何辨别以及防范呢?
一起了解下吧
AI诈骗常用手法
第一种:声音合成
骗子通过骚扰电话录音等来提取某人声音,获取素材后进行声音合成,从而可以用伪造的声音骗过对方。
第二种:AI换脸
人脸效果更易取得对方信任,骗子用AI技术换脸,可以伪装成任何人,再通过视频方式进行信息确认。
骗子首先分析公众发布在网上的各类信息,根据所要实施的骗术,通过AI技术筛选目标人群。在视频通话中利用AI换脸,骗取信任。
第三种:转发微信语音
骗子在盗取微信号后,便向其好友“借钱”,为取得对方的信任,他们会转发之前的语音,进而骗取钱款。
尽管微信没有语音转发功能,但他们通过提取语音文件或安装非官方版本(插件),实现语音转发。
第四种:AI程序筛选受害人
骗子利用AI来分析公众发布在网上的各类信息,根据所要实施的骗术对人群进行筛选,在短时间内便可生产出定制化的诈骗脚本,从而实施精准诈骗。
如何防范?
多重验证,确认身份
如果有人要求你分享个人身份信息,如你的地址、出生日期或名字,要小心;
对突如其来的电话保持警惕,即使是来自你认识的人,因为来电显示的号码可能是伪造的;
网络转账前要通过电话等多种沟通渠道核验对方身份,一旦发现风险,及时报警求助;
如果有人自称“熟人”“领导”通过社交软件、短信以各种理由诱导你汇款,务必通过电话、见面等途径核实确认,在AI时代,文字、声音、图像和视频都有可能是深度合成的。不要未经核实随意转账汇款,不要轻易透露自己的身份证、银行卡、验证码等信息;
保护信息,避免诱惑
不轻易提供人脸、指纹等个人生物信息给他人,不过度公开或分享动图、视频等;
陌生链接不要点,陌生软件不要下载,陌生好友不要随便加,防止手机、电脑中病毒,微信、QQ等被盗号;
对于不常用的APP,建议卸载前注销个人帐号。APP不提供个人帐号注销方式,或为注销帐号设置各类障碍的,请至12321.cn投诉。发现APP过度、强制收集个人信息,也可至12321.cn投诉。
提高安全防范意识
公检法没有安全账户,警察不会网上办案,如果有网络警察说你犯事了,让他联系你当地的派出所,你也可以主动打110咨询;
中国互联网协会提醒:遭遇诈骗信息,请至12321.cn反诈专栏举报,如发生资金损失请及时报警;
如不慎被骗或遇可疑情形,请注意保护证据立即拨打96110报警;
转发提醒!
你是怎样看待AI的呢?
来源:央视新闻、《共同关注》、北京日报、中国新闻社、“平安包头”微信公众号、武汉市反电信网络诈骗中心、中国互联网协会、中国之声、b站等