我们常说“眼见为实”,但在 AI 时代,肉眼所看见的也不一定是真相。一些不法分子利用“ AI换脸 ”技术实施诈骗,已成为一种新型骗局。一张“肖像照片”、一段“貌似熟人的视频 ”,都可能被不法分子利用作为诈骗的手段和工具。(央视新闻 8月18日) 电信网络诈骗本就变幻莫测,让人防不胜防,如今有了 AI换脸技术的“加持”,更加大了防骗反诈的难度。对此,民众不仅要进一步擦亮眼睛、提高警惕,还需要技术力量有更大的作为,在技防层面实现“降维打击”。虽然 AI 换脸几乎可以一键完成,但其依托的深度合成技术还是存在很高技术门槛与壁垒的。被不法分子利用来进行诈骗的AI 换脸软件,大概率也是依托于各大科技公司或单位开发的相关产品,因而要在源头上阻止 AI换脸技术被滥用,理论上不存在太大困难,毕竟绝大多数诈骗分子或团伙还没强大到能自主研发一套AI换脸系统。动用技术力量打击AI换脸诈骗,一方面要从源头上防止技术被滥用。对于一些开放性的技术或 AI模型,平台当然没有办法阻止诈骗分子使用,可对于此类几乎能以假乱真的深度合成技术内容,显然要有必要的提醒,明确告知受众其为 AI技术生成的产品。另一方面,要加大对AI换脸诈骗行为的识别力度。不法分子利用AI生成的图片 、 视频实施诈骗,完成换脸只是第一步,接下来还需要通过各种社交媒体平台向潜在目标传输虚假照片或视频,以达到迷惑对方实施诈骗的目的。在这种情况下,各大平台如果能研发并及时推出AI换脸诈骗检测与预警机制,那无形中又给用户的安全加了把锁。除了技防层面的不断强化之外,反电诈宣传也要与时俱进,将AI换脸类诈骗的识别、防范及时纳入宣传范畴,让大家知晓在AI生成技术面前,有图不一定有真相,即便是视频也可以被伪造,让大家在网络生活中务必多留个心眼。面对层出不穷的新型骗局套路和花样,作为自身安全第一责任人的广大民众,做好“提高警惕心莫贪”“陌生链接不点击”等常规防骗措施外,更要有针对性地防范AI换脸诈骗。AI换脸得以进行的前提是掌握了目标对象的面部信息与动作,让 AI技术有训练与学习的数据素材。因而,大家在网络生活交往中,要进一步保护好自己的人脸等生物信息,不过度公开或分享动图、视频,不法分子无法轻易获取行骗对象的面部信息,自然也就无法通过AI换脸来实施诈骗行为了。可见,随着诈骗技术的水涨船高,民众的安全意识与防骗技能也要相应加以提升。
版权声明
本文为本站原创内容,转载需注明文章来源(https://www.eiefun.com),另:文中部分素材可能会引用自其他平台,如有侵权或其它,请联系 admin@eiefun.com,我们会第一时间配合删除