央视新闻客户端
现如今人工智能让“换脸”变得轻而易举,一旦被不法分子利用,会给普通人带来严重伤害。近日,辽宁沈阳警方公布了一起利用AI技术合成他人不雅视频并恶意传播的案件。
不雅视频流传网络
女子被恶意换脸
今年5月,辽宁的王女士在浏览某短视频平台时,竟发现自己的“不雅照”被公开传播。视频中,她的面部被合成到一个裸体女性的身体上,还配有侮辱性文字。王女士从未拍过类似视频,随即选择报警。
辽宁省沈阳市康平县公安局胜利派出所副所长 胡俊焯:报警的时候,因为感觉这个事比较丢人,她一边说一边哭,主要是不知道有多少人看过这视频,对她影响有多大。
![]()
经过技术侦查,警方发现恶意视频的发布者指向一个姓刘的男子。到案后据刘某交代,其发布的不雅视频是在网络上找人用AI合成的。
据了解,王女士在本地经营着一家理发店,刘某曾在理发店短暂试工。由于试工期间的工资问题,两人产生了分歧,刘某因此萌生了发恶意短视频报复王女士的念头。
最终,刘某因触犯《中华人民共和国治安管理处罚法》,被辽宁警方处以行政拘留十日,罚款500元的处罚。
AI合成有破绽
警方教您来分辨
近年来,利用AI换脸实施的违法犯罪活动不在少数,除了在网上发布恶意视频,还有利用AI换脸伪造视频通话进行欺诈等。日常生活中,被AI换脸有哪些风险?消费者又该如何防范呢?
记者注意到,近年来因AI换脸给消费者造成损失的案件不在少数。
今年五月,上海警方破获一起专门利用AI生成虚假网恋女友诈骗案,涉案金额达200余万元。2024年,内蒙古鄂尔多斯一名消费者曾遭遇AI换脸诈骗,险些损失40万元。视频通话中,诈骗人员利用AI换脸技术冒充该名消费者朋友,以资金周转为由,诱骗其转账40余万元。好在警方介入及时才未造成实际损失。 同年,安徽一名消费者也遭遇过相同套路AI换脸诈骗,损失金额达六十余万元。
![]()
记者调查发现,现如今,AI技术迅速发展的同时,也被一些不法分子盯上,沦为了非法牟利的工具。
据警方介绍,要想实现AI换脸,过程非常简单:仅需一张照片,不到十秒就能合成一张换脸图片。
![]()
辽宁省沈阳市康平县公安局网络安全大队大队长 巩超:我们在网上找了一个软件,先选择人脸照片,目标照片选择后,点击开始生成,这就是一个最初级简单的AI换脸过程和生成的图像。
然而,AI换脸视频虽然迷惑性较强,但也有些破绽。
![]()
辽宁省沈阳市康平县公安局网络安全大队大队长 巩超:如果在直播中AI换脸,转脸的时候,侧脸是会虚的。上下左右晃动的时候会有虚影出现。如果是别人和你视频通话的时候。建议让对方上下左右晃晃头,或者用一句方言跟对方说话。他不可能模仿你的声音,再把你的方言模仿下去。
警方提醒,网络并非法外之地,任何违法行为都将留痕,利用AI技术从事非法活动终将会被罚。警方提示消费者应注意保护个人隐私,不随意上传包含个人信息的图片、视频。
![]()
辽宁省沈阳市康平县公安局网络安全大队大队长 巩超:可以去发照片,但不透露个人信息或联系方式,还有位置、工作地点。这样能降低被诈骗的风险。遇到事不要慌,一定要相信,报警一定能帮大家解决问题。





京公网安备 11011402013531号