摘要:"您的偶像正在直播间等您连线!"——当你收到这样的推送时,是否想过屏幕里那张熟悉的脸,可能根本不属于真人?近日北京警方破获的AI换脸诈骗案中,不法分子利用伪造的明星形象,短短两周就骗取粉丝上百万元。这不禁让人脊背发凉:我们还能相信眼前看到的画面吗?
"您的偶像正在直播间等您连线!"——当你收到这样的推送时,是否想过屏幕里那张熟悉的脸,可能根本不属于真人?近日北京警方破获的AI换脸诈骗案中,不法分子利用伪造的明星形象,短短两周就骗取粉丝上百万元。这不禁让人脊背发凉:我们还能相信眼前看到的画面吗?
##当AI成为诈骗犯的"面具"
北京邮电大学周琳娜教授团队的最新研究显示,2023年涉及AI换脸的诈骗案件同比激增300%。犯罪分子的手段已经形成完整产业链:先通过深度学习获取目标人脸数据,再用生成对抗网络(GAN)技术制作动态视频,最后配合声纹合成实施诈骗。某科技公司财务就曾因"老板"的视频指令,将87万元转入骗子账户。
##三招揪出"画皮"骗局
第一招:观察面部边缘破绽
真人的脸部与背景过渡自然,而AI换脸视频在发际线、耳朵轮廓处常出现模糊或锯齿。就像比特萌在《少年AI奇遇记》中发现的那样,骗子很难完美处理转头时的颈部阴影。
第二招:捕捉非对称细节
人类面部天生存在细微不对称,但AI生成的画面往往过于完美。周琳娜教授建议重点观察:双眼瞳孔大小是否一致?微笑时法令纹深度是否相同?这些生物学特征正是AI的"死穴"。
第三招:检测非常规动作
正常人类每分钟眨眼15-20次,而AI模型常忽略这个细节。测试时可以要求对方快速转头或用手遮脸,伪造视频容易出现画面撕裂或延迟。
##在虚实交错的时代守护真相
来源:Asp邱海龙