网传「身边每一个拿手机对着你的人」、「用来诈骗赚钱」的消息和视频,短视频示范只需要 5 秒的影音素材,就能以 AI 技术快速生成假冒他人的假视频来进行诈骗。MyGoPen 询问刑事局和资安专家,警方表示,视频中展示的 AI 技术确实是可以达到的,但目前诈骗集团主要是将深伪用在假冒名人上,台湾尚无此类应用;资安专家刘彦伯则指出,这类强调「AI 科技带来威胁」的视频,忽略了目前 AI 技术上的限制,传言视频中展示的快速脸部建模,虽然可行,但其实对手机设备、外在环境等相关要求非常高。总结来说,民众对深伪技术的诈骗提高警觉是好事,但不需过度担心,警方也建议民众可以和亲友创建通关密语,在提到和财务有关的问题时,以通关密语测试屏幕另一边的人到底是真是假。
AI影音工具假冒的诈骗手法?
原始谣传版本:
这世界真的很可怕及完蛋了,科技越好不用在正途上,用来诈骗赚钱好可恶的行为哩!真的要好好的防骗哩!对不认识的人要查言观色,以免被骗喔!防人之心不可无!
主要流传这段视频
并在社群平台流传:
网络上还有许多一模一样的视频脚本。
查证解释:
网传视频中描述的状况是否为真?
(一)MyGoPen 实际询问内政部警政署刑事局与资安专家刘彦伯,警方表示,网传视频中的状况以目前的 AI 技术确实能做到,不过此类案件都是发生在国外,先前了解到国外有这样的状况时,台湾就已经开始在做相关宣导。
刑事警察局官方 YouTube 在 2024 年 3 月 29 日就推出一则「宝贝女儿是真是假?」的宣导视频,内容是分享国外利用 Deepfake 技术进行犯罪的情境,演示深伪技术可以拷贝受害人亲朋好友的影像与声音以进行勒索、要求转帐。
在资安方面,警方建议,亲友间可先创建好通关密语,遇到亲友谈到帐户,务必以事先约定好的通关密语或近期亲友的共同活动进行测试;也提醒民众保护自己的个人信息,个人Facebook、Instagram、Line 等帐户被盗就容易遇上深伪诈欺。
(二)刘彦伯表示,从 AI 话题延烧后,中国这类「摆拍博眼球」的虚假短片越来越多,其实中国当局已经对此提出了警示,但由于视频数量众多所以还是跨海来到台湾。
这类强调「AI 科技带来威胁」的视频,其实都有共同特征,就是夸大 AI 的能力,却完全忽略目前 AI 技术上的限制。
例如目前要用人工智能去生成一部几可乱真的视频,其实需要仰赖大量的电脑算力,无法单纯通过手机运算,即使通过云端服务也需要非常长的时间。
另外视频中有展示到通过手机做快速脸部建模,虽然可行,但其实对手机设备、外在环境等相关要求非常高。而视频中的环境光相对微弱,所以并无法像展示那样容易,而建模的好坏更会牵动整体脸部上的连动效果。
刘彦伯表示,综合以上观点,我们更可以去推论上述视频中的效果更像是拍了两部视频,再通过剪接假装是 AI 产出的前后视频。信息安全很重要,我们不能忽略 AI 新科技带来的新威胁,但也提醒对于这样的视频,不应该过度解读自己吓自己。
目前台湾 AI 影音的诈骗类型
警方指出,目前诈骗集团主要将深伪技术用在假冒名人,因为名人的影像、声音等数据在网络上容易取得,通常会应用在投资诈骗上,比如以深伪技术假冒财经专家、知名企业,制作成假视频后投放广告,引导民众加入封闭式的通信软件。
待民众加入 LINE、Telegram 等群组后,诈骗集团会每天固定时间提供假造的教学影音,以此包装其专业度,借此取信被害人,再诱使被害人加入诈骗投资 APP 平台,让被害人活在深伪包围的网络环境。
至于传言视频中以深伪技术假冒素人的方式,警方表示这不太会是集团犯罪的手法,一来是影像、声音等数据不像名人那么容易取得,二来是采取这种方式的犯人通常是被害者亲近的人,不难排查。
但国外确实存在这样的个案,如果被锁定目标、观察已久,且犯人熟知被害人身边的亲友状况,未来台湾的确也可能发生,民众除了提升警觉心之外,也建议可先和亲友创建好通关密语。
数据源:
CIB刑事警察局 YouTube – AI诈骗-月子篇
内政部警政署刑事局 – 「宝贝女儿是真是假」刑事局推出预防深伪诈骗宣导视频
单位咨询:内政部警政署刑事局
专家咨询:资安专家 – 刘彦伯
版权声明
本文为本站原创内容,转载需注明文章来源(https://www.eiefun.com),另:文中部分素材可能会引用自其他平台,如有侵权或其它,请联系 admin@eiefun.com,我们会第一时间配合删除