当前位置: 首页 » 资讯 » 科技头条 » 正文

演员王劲松发文怒斥,他担忧的AI诈骗已真实发生,普通人该如何防范?

IP属地 中国·北京 上观新闻 时间:2026-02-26 22:41:44



今天,知名演员王劲松发文称,自己的形象被AI盗用生成视频:“太可怕了,视频。声音,口型完全看不出来真假。微信视频号,就这么盗用,把我AI了。”


王劲松投诉的AI视频

虽然在投诉后,平台已经下架了该视频,但王劲松还是在评论区与网友交流时表示担忧:“我家里人都分不清是不是真是我了,我担心的是以后会不会出现更真、性质更恶劣的AI肖像侵权行为,用于诈骗呢?不敢想……”

遗憾的是,王劲松的担忧已经成真。近年来,确实出现了一些运用人工智能技术来实施电信诈骗的案件。上海市闵行区人民检察院去年办理的一起案件中,犯罪团伙在抖音平台发布AI生成或拼接的美女视频,吸引男性被害人添加指定微信号,实施后续诈骗。短短一年间,15名男性被害人被骗171万余元。



情感诈骗只是新型AI诈骗中的一种。当前,通过AI实施的语音合成诈骗、图像生成诈骗、智能客服诈骗等新型犯罪层出不穷,让人防不胜防。最高人民法院今天发布的一起典型案例中,犯罪分子就是利用人工智能模拟被害人亲属声音,从而获得对方信任。

2025年4月下旬,吴某涛经人介绍,获悉可前往各地帮助收取诈骗资金以牟取非法利益,遂添加上线联系方式。之后,吴某涛按照上线指令,乘车前往湖北省黄石市,假冒身份上门收取诈骗款。吴某涛来到被害人家后,当场拨通上线语音电话,再由上线利用AI拟声技术模拟被害人亲属声音,冒充亲属取得信任,从三名老人处骗取现金共计6万元,后将上述款项交给他人,从中获利1700元。

在宁夏警方去年披露的一起案件中,银川市某公司部门经理张先生接到“老板”打来的视频电话,对方称因情况紧急,需立刻转账汇款。在视频中确认是“老板”后,张先生放下了戒心,十几分钟内便将20万元转入指定账户。直到下午当面汇报工作时,张先生才发现上当受骗。

“你以为在和朋友亲人视频聊天,其实是骗子使用的‘AI换脸’技术,让别人的嘴能够‘对口型’。”办理该案的民警指出,“AI换脸”技术不仅限于静态照片的活化,还能在即时视频通信中实时换脸。虽然需要采集大量不同角度的照片进行模型训练,但一旦成功,便可以假乱真。

面对熟练使用AI技术造假的诈骗团伙,普通人真的没有办法防范了吗?当然不是。资深反诈民警指出,除了更加注重保护个人隐私,尽量避免泄露之外,遇到对方提出涉及钱款的要求时,要多留个心眼,采取一些特殊方式验证身份。

比如,视频通话时,可以让对方做出眨眼、摸鼻子、用手指或其他遮挡物在脸前晃动等小动作,观察画面是否有出现延迟或者异常扭曲等不自然的微小变化,若有,说明对方很可能正在使用“AI换脸”技术。此外,在与对方的沟通中,可以问一些比如生日、电话号码、喜好等较为隐私的问题,或者结束通话后使用其他联系方式进行再次确认。

原标题:《演员王劲松发文怒斥,他担忧的AI诈骗已真实发生,普通人该如何防范?》

栏目主编:王海燕 题图上观题图

作者:解放日报 王闲乐

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。