2月12日,Seedance 2.0正式接入豆包App、电脑端和网页端。据悉,Seedance 2.0模型支持原声音画同步、多镜头长叙事、多模态可控生成。
Seedance 2.0上线以来,获得了科技及影视等多界认可。《黑神话·悟空》制片人冯骥在微博中给出了“AIGC的童年时代,结束了”的高度评价。马斯克在社交平台X转发评论Seedance 2.0相关推文,并直言模型发展速度太快。
在Seedance 2.0全量上线的同时,豆包表示,豆包Seedance 2.0暂不支持上传真人图片作为主体参考。
这一限制也再度将视频生成式AI潜藏的法律风险推至台前。
上海市人工智能行业协会秘书长钟俊浩指出:“生成内容是否侵权、版权归谁,仍是悬而未决的法律难题。”上海市联合律师事务所律师王子祺对财闻指出:“生成侵害他人隐私内容、侮辱诽谤他人的内容、传播虚假信息等法律性质较为明确。但因新模型生成结果更加逼真,此类结果在传播中的鉴别难度、不良影响将会更大。”
在技术列车加速行驶的过程中,法律和监管该如何同频护航?
AIGC法律风险再度暴露
2月9日,影视飓风发布视频Seedance 2.0相关视频,视频中影视飓风运营者Tim表示,Seedance 2.0具备导演思维,具备分镜连续性和音画匹配度等传统视频生成模型难以匹敌的优势。但同时,Tim也直言其“恐怖”:“如果一个人的数据全部进入了AI的数据集会发生什么?它能够100%地模拟出你的任何形态,还有声音。请问这样的内容,你的家人分得出真假吗?”
随着Seedance 2.0的爆火,周星驰经典电影中的内容也被AI重新制作,并广泛传播。2月9日,周星驰经纪人陈震宇也在微博发出了是否侵权的质疑。
钟俊浩对财闻指出:“人工智能正以‘周’为单位迭代进化。今天,顶尖视频生成模型已不仅仅是工具,更像是数字世界的‘造梦师’,只要输入几张照片,就能让静止的人物说话、行走、演绎从未发生过的事。这种‘无中生有’的能力,在释放内容生产力、降低创作门槛的同时,也带来了法律与伦理挑战。”
他具体指出,首先是隐私权与肖像权侵犯风险。基于少量真实影像,AI可以生成高度拟真的动态视频,相当于为每个人建立了一个“未经授权的数字分身”。当技术可以随意“复活”一个人的表情、动作、声音,我们面临的就不再只是“P图恶搞”,而是真实人格被虚拟化、工具化的系统性风险。
第二是深度伪造与虚假信息传播风险。高质量生成视频的门槛急剧下降,虚假新闻、AI电信诈骗、水军造势等行为开始具备“视觉说服力”。视频作为传统意义上“有图有真相”的媒介,正失去其证据属性。长此以往,社会对公共信息的信任基础将面临侵蚀。
第三是知识产权归属的侵权风险。当前,绝大多数生成模型依赖海量互联网数据进行训练,其中包含大量受版权保护的图像、影视片段。但“学习”与“抄袭”的界限尚未厘清,生成内容是否侵权、版权归谁,仍是悬而未决的法律难题。这既让创作者维权困难,也让平台方陷入合规焦虑。
技术按下快进键,法律尚未准备好
2月10日,针对Seedance 2.0在内测期间的远超预期的关注和反馈,即梦创作者社群中,有运营人员表示,针对反馈进行紧急优化,暂不支持输入真人图片或视频作为主体参考。
暂时的功能下线,并不会止步技术的发展;相比AI技术的加速迭代,法律层面尚未做好准备。
王子祺对财闻表示:“目前对于AIGC音视频生成模型,相关的知识产权认定,司法实务还处于探索阶段。生成的音视频作品是否具备可版权性(copyrightability),版权归属为谁,目前尚未有统一的法律规定。”
他分享了海外的一则案例,OpenAI旗下的Sora模型服务曾被迪士尼公司明确禁止生成包含迪士尼旗下IP形象的内容,而在2025年12月,迪士尼与OpenAI正式宣布达成一项为期三年、价值10亿美元的战略合作,其中包括授权其AI视频生成平台Sora使用超200个经典IP角色。
财闻发现,2月12日,据WDW News Today报道,因遭迪士尼指控知识产权侵权,谷歌旗下AI产品Gemini及Nano Banana已开始拒绝生成迪士尼相关角色内容。
“从中国司法实践来看,此前的‘奥特曼案’‘上海美杜莎案’各地法院采取的司法口径有些许差异。”王子祺表示。
他进一步指出,就用户使用视频生成模型而言,生成侵害他人隐私内容、侮辱诽谤他人的内容、传播虚假信息等,其法律性质目前较为明确,仍可适用现行法律框架。但因新模型生成结果更加逼真,此类结果在传播中的鉴别难度、不良影响可以预见将会更大。
“相对于生成结果的个案侵权,模型训练数据获取使用的合理边界作为AIGC大模型的信息来源,目前国内司法实践较为空白。”王子祺表示。
法律监管该如何发力护航?
“技术跑得太快,法律不能总等到出事了再补漏洞。”钟俊浩如是感慨。他表示:“面对AI这种‘按周升级’的节奏,我们需要一种能和它并行进化、又贴合产业实际的治理思路。”
钟俊浩指出,要以“敏捷治理”重构规则响应机制。传统立法往往以“年”为单位,而AI能力每几个月就有代际跃升。上海正在探索的一条路径是:对不同风险场景实行分级施策,即对有舆论属性的大模型,采取强制性安全评估与模型备案;对创意辅助、影视后期等中低风险场景,则以标准引导、行业公约为主。这就像交通管理——高速公路设卡严查,社区道路依靠标识与文明驾驶。
他强调,要推动“技术治理”与“制度治理”双向赋能。希望企业在设计产品时,就把隐私计算、数字水印、伪造检测这些功能装进系统里,而不是等出事了再打补丁。2025年开始,《人工智能生成合成内容标识办法》正式施行,明确要求AI生成的视频必须“打水印、亮身份”。让AI内容自己说“我是AI”——这才是对抗伪造最根本的办法。
财闻注意到,在2月11日,网信办针对部分网络账号发布AI生成合成信息时不添加AI标识,存在利用虚假不实内容欺骗误导公众的问题,依法依约处置账号13421个,清理违法违规信息54.3万余条。
此外,在大模型训练方面,王子祺也给出建议:“鉴于训练数据一旦被训练为大模型,往往难以进行精确的修改、屏蔽、信息比对操作,建议法律法规在训练数据的获取使用方面对大模型服务商一方适当严格要求,如对数据的‘合法来源’作出兼具实质与形式的细化规定。”此外,他指出,个人信息授权训练使用的“个人同意”作出需更为具体,包括严格形式要求和列举排除性条件的细化规定。
他进一步表示:“AIGC大模型的开发和训练需要大量的设备成本、算力要求,天然具有较高的进入门槛。随着相关产业的发展,AIGC大模型的市场占有率可能会逐渐向少数服务商集中,并且成为人们重要的互联网入口。届时,可能也要从反垄断和反不正当竞争的角度完善相关法律,促进这一市场的健康发展。”





京公网安备 11011402013531号