当前位置: 首页 » 资讯 » 科技头条 » 正文

被AI换脸有哪些风险?如何防范?警方教您分辨

IP属地 中国·北京 环球网资讯 时间:2025-10-30 00:11:19

央视新闻客户端

现如今人工智能让“换脸”变得轻而易举,一旦被不法分子利用,会给普通人带来严重伤害。近日,辽宁沈阳警方公布了一起利用AI技术合成他人不雅视频并恶意传播的案件。

不雅视频流传网络

女子被恶意换脸

今年5月,辽宁的王女士在浏览某短视频平台时,竟发现自己的“不雅照”被公开传播。视频中,她的面部被合成到一个裸体女性的身体上,还配有侮辱性文字。王女士从未拍过类似视频,随即选择报警。

辽宁省沈阳市康平县公安局胜利派出所副所长 胡俊焯:报警的时候,因为感觉这个事比较丢人,她一边说一边哭,主要是不知道有多少人看过这视频,对她影响有多大。



经过技术侦查,警方发现恶意视频的发布者指向一个姓刘的男子。到案后据刘某交代,其发布的不雅视频是在网络上找人用AI合成的。

据了解,王女士在本地经营着一家理发店,刘某曾在理发店短暂试工。由于试工期间的工资问题,两人产生了分歧,刘某因此萌生了发恶意短视频报复王女士的念头。

最终,刘某因触犯《中华人民共和国治安管理处罚法》,被辽宁警方处以行政拘留十日,罚款500元的处罚。

AI合成有破绽

警方教您来分辨

近年来,利用AI换脸实施的违法犯罪活动不在少数,除了在网上发布恶意视频,还有利用AI换脸伪造视频通话进行欺诈等。日常生活中,被AI换脸有哪些风险?消费者又该如何防范呢?

记者注意到,近年来因AI换脸给消费者造成损失的案件不在少数。

今年五月,上海警方破获一起专门利用AI生成虚假网恋女友诈骗案,涉案金额达200余万元。2024年,内蒙古鄂尔多斯一名消费者曾遭遇AI换脸诈骗,险些损失40万元。视频通话中,诈骗人员利用AI换脸技术冒充该名消费者朋友,以资金周转为由,诱骗其转账40余万元。好在警方介入及时才未造成实际损失。 同年,安徽一名消费者也遭遇过相同套路AI换脸诈骗,损失金额达六十余万元。


记者调查发现,现如今,AI技术迅速发展的同时,也被一些不法分子盯上,沦为了非法牟利的工具。

据警方介绍,要想实现AI换脸,过程非常简单:仅需一张照片,不到十秒就能合成一张换脸图片。


辽宁省沈阳市康平县公安局网络安全大队大队长 巩超:我们在网上找了一个软件,先选择人脸照片,目标照片选择后,点击开始生成,这就是一个最初级简单的AI换脸过程和生成的图像。

然而,AI换脸视频虽然迷惑性较强,但也有些破绽。


辽宁省沈阳市康平县公安局网络安全大队大队长 巩超:如果在直播中AI换脸,转脸的时候,侧脸是会虚的。上下左右晃动的时候会有虚影出现。如果是别人和你视频通话的时候。建议让对方上下左右晃晃头,或者用一句方言跟对方说话。他不可能模仿你的声音,再把你的方言模仿下去。

警方提醒,网络并非法外之地,任何违法行为都将留痕,利用AI技术从事非法活动终将会被罚。警方提示消费者应注意保护个人隐私,不随意上传包含个人信息的图片、视频。


辽宁省沈阳市康平县公安局网络安全大队大队长 巩超:可以去发照片,但不透露个人信息或联系方式,还有位置、工作地点。这样能降低被诈骗的风险。遇到事不要慌,一定要相信,报警一定能帮大家解决问题。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。