智能家居、无人驾驶、ChatGPT……AI产品给人们的生活带来了极大便利;但与此同时,诈骗分子也盯上了AI技术。所以和你视频通话的人,可能不是本人。
AI换脸,既能生成静态的图片,也能生成动态的视频。比如,在短视频中常看见的换脸,就是使用了基于深度伪造技术的AI换脸操作。
说起这一技术,光伪造还不够,还要深度伪造。算法会捕捉两个人的脸部信息,再进行不断学习,最终完成面部和表情的匹配,从而生成一段新视频。而这一切,归功于深度伪造技术背后的生成对抗网络。
生成对抗网络能够在半监督或者无监督的应用场景下进行生成任务的学习,由一个生成器和一个判别器组成。这两组不同的人工智能算法,一组负责不断生成伪造的视频、图片,另一组负责不断鉴别真假。如果生成器成功骗过了判别器,就改进判别器的算法。反之,如果判别器抓到了生成器的马脚,就改变生成器。
生成器和判别器就像一对一起练习、相互制衡的对手,一方变厉害了,另一方面也要变得强大。最终在理想状态下,生成器可以生成以假乱真的图片,使判别器无法进行准确判断。
深度伪造技术这么厉害,我们到底该怎样防范AI诈骗呢?
其实并不困难,我们只需在视频通话时,让对方用手指或者手掌在脸前来回移动,或者将脸左右旋转,如果对方面部出现扭曲或闪烁的情况,那就是AI换脸无疑。除此之外,还可以加几道验证题,比如:上次吃饭的时间,上次见面是什么时候等。如果对方支支吾吾、避而不谈,那就要多留心眼,保护好自己的钱财。
(作者系大连民族大学机电工程学院学生)
(编辑:马永)最新新闻
专题
更多>>