当前位置: 首页 » 资讯 » 科技头条 » 正文

字节Seedance 2.0刷屏后,紧急禁用真人素材,该视频博主们慌了?

IP属地 中国·北京 编辑:顾青青 超角度 时间:2026-02-10 10:29:36

近日,字节跳动上线Seedance 2.0视频生成模型,进行内测,引发行业热议。

该模型支持文字、图片、视频、音频等各类素材输入生成视频,在自运镜和分运镜、全方位多模态思考、音画同步生成、多镜头叙事能力等几个关键能力上实现突破。

先看看效果:

有网友认为,看了Seedance 2.0的生成视频效果后,很快普通人就分不清AI生成视频了。

有网友直言,眼已瞎,AI视频已进入分辨不出的时代。

《黑神话悟空》制作人冯骥也发文对Seedance 2.0大加赞赏:“昨天试了试刚上线即梦的Seedance 2.0。它在使用手册标题的最后,写着Kill the game!(杀死比赛)。这个评价,相当客观。AIGC的童年时代,结束了。”

他用领先、全能、低门槛、产能爆炸、视频全民化等词描述自己的使用感受。

他同时也表达了对假视频泛滥与信任危机的担忧。因为逼真的假视频将变得毫无门槛,而现有的知识产权与审查体系会面临空前冲击。

他郑重建议:请大家尽快提醒父母与不熟悉AI的亲友,未来一切缺乏官方权威渠道背书的视频内容(尤其是包含个人形象与声音的)都可能是伪造的。请务必通过多渠道交叉确认,避免上当。

除了对假视频的担心,隐私问题也浮出水面。

知名科技博主Tim(本名潘天鸿)在评测过程中发现,仅提供了自己的照片、未提供声音或视频等素材的前提下,Seedance2.0能够生成带有Tim个人音色的声音。

更让Tim感到惊讶的是,他只上传了办公楼的一面,但视频却能生成与现实几乎一样的楼的另一面。

“这不恐怖吗?它知道我背后的东西是什么。”

Tim认为,Seedance 2.0大量训练了他公司的视频,而他没有被联系过授权。

Tim又用何同学的照片生成视频,但这次的声音不是何同学,还是Tim的声音。

Tim认为如果一个人的数据全部进入了AI数据集,它能够100%的模拟出这个人任何的形态和声音,“这样的内容,你的家人能分得出真假吗?”

随着真假视频、隐私问题的讨论,即梦方面今天紧急暂停了真人素材作为主体参考。

即梦的运营人员表示:“即梦创作者们大家好,Seedance 2.0在内测期间收获了远超预期的关注,感谢大家的使用与反馈。为了保障创作环境的健康可持续,我们正在针对反馈进行紧急优化,目前暂不支持输入真人素材作为主体参考。我们深知创意的边界是尊重。产品调整期间给各位带来的不便,敬请谅解,期待以更完善的面貌与大家正式见面。”

什么叫真人素材参考?看即梦App这张使用图就明白了。

就是在即梦生成视频操作中,你可以上传一张真人照片作为生成时的参考,其实就是真人作为视频里的主体。

而现在即梦不让上传真人照片用来生成视频了。

这次事件暴露出AI视频几大问题:

真假难辨导致的信任危机。普通人肉眼无法区分AI生成与实拍,造谣、诈骗、仿冒亲友、伪造舆论视频的成本趋近于零,现有法律、审核、溯源体系可能跟不上。

视觉证据不再天然可信,人类进入 “后真相视频时代”。

隐私与数据授权,成为灰色地带。Tim的实测暴露了最尖锐的问题,用户未授权、未知情,数据却已被学习。

这触及了全球AIGC最敏感的红线,模型到底用了谁的数据?有没有授权?

技术的权衡发展问题。好在这次仅是内测,范围较小,通过内测反映出问题,可控可治。但也不能一刀切,技术领先不易,应该保护,也应该在安全的渠道内发展。

不是关闭功能,是先把 “最危险口子” 堵上,先把最容易用于伪造、诈骗、侵权的功能关掉,保留技术探索空间。

AI时代的全民信息素养问题。冯骥的预警非常重要,必须尽快普及AI知识,提升公众对虚假信息的辨别能力,建立“多渠道交叉验证”等新的安全习惯。

Seedance 2.0内测爆火与紧急暂停真人功能,是AIGC从炫技阶段正式进入安全与合规并重阶段的标志性事件。

最后我想到的是,那些每天出镜的视频博主们,是不是最容易被Deepfake(深度伪造)?有没有打一激灵?

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。