但是高科技的产物,一旦被恶意利用,这后果也是不堪设想的。你能想象吗?在一个多人视频会议中,竟然只有一个人是真人。这事听上去似乎匪夷所思却真实地发生了。
在这起案件中,一家跨国公司香港分部的职员受邀参加总部首席财务官发起的“多人视频会议”,并根据相关要求先后转账多次,将2亿港元分别转账15次,转到5个本地银行账户内。
其后,向总部查询才知道受骗。警方调查得知,这起案件中所谓的视频会议中只有受害人一个人是“真人”,其他“参会人员”都是经过“AI换脸”后的诈骗人员。
必须注意的是,随着深度合成技术迅猛发展,可以实时生效、作用于视频聊天的AI换脸技术早已出现,有不少人因此上当受骗。
据专家介绍,“AI换脸”过程最重要的包含人脸识别追踪、面部特征提取、人脸变换融合、背景环境渲染、图像与音频合成等几个关键步骤,最核心的包括三个部分:
首先,利用深度学习算法精准地识别视频中的人脸图像,并提取出如眼睛、鼻子、嘴巴等关键面部特征。
最后,通过背景环境渲染并添加合成后的声音,生成逼真度较高的虚假换脸视频。
需要注意的是,AI人脸合成软件在网络上非常容易获取。在网上,演示换脸软件使用方法及效果的教程比比皆是,其中不少“AI换脸”软件需要付费使用。
在某个提供AI换脸服务的网站上,开发者演示了一段使用其软件实现换脸的示范视频。
据上述软件开发者表示,想换什么脸都可以,拿素材训练即可。不但可以实现视频换脸,还支持直播换脸。
只需要少量的音视频样本数据,就能合成人工审核都难辨真假的伪造音视频,从而进行精准诈骗,或者销售、恶意传播换脸不雅视频,这些视频甚至还能够被用于一些支付平台做贷款套现。
要知道,实际生活中,很多人对照片等静态信息易被篡改有所警惕,但对声音、视频等动态信息的信任度还是比较高的。
再加之“伪造”合成技术升级的速度实在太快了,这对人脸、声纹等个人敏感信息保护形成巨大挑战,也造成监管成本和难度高了好几个数量级。
其实,目前视频换脸的技术上也不是无懈可击的,在视频沟通时的一些动作,就不难发现破绽。
中国计算机学会安全专业委员会数字化的经济与安全工作组成员 方宇:我们大家可以要求对方在视频对话的时候,在脸部的前面通过挥手的方式,去进行识别,实时伪造的视频,因为它要对这一个视频进行实时的生成和处理和AI的换脸。
在挥手的过程中,会造成面部的数据的干扰。挥手过程中,他所伪造的这个人脸,会产生一定的抖动或者是一些闪现,或者是一些异常的情况。
第二个就是,在点对点的沟通中可以问一些只有对方知道的问题,验证对方的真实性。
中国科技大学互联网空间安全学院执行院长俞能海提醒,可以让对方摁鼻子、摁脸,观察其面部变化。
此外,还能够最终靠软件来识别,比如替换的眼睛、鼻子、嘴巴和轮廓,像素大小是不一样的,颜色的色域是有差别的,这些我们肉眼看不出来,但是软件算法是可以检测出来的。
最后提示警醒我们,请勿轻易向他人或APP提供自己的人脸、指纹等个人生物信息,不过度在社交平台分享清晰可见的动图或视频等,提高自我保护意识。网络转账前务必核验对方身份,一经发现有异常,及时报警。一经发现风险,立马报警求助。
Copyright ©2017-2022 Hainan Zose Group 琼ICP备13000627号