南方财经记者魏彤 广州报道
12月18日, 2025年中国数字文娱大会以“新技术 新模式 新业态”为主题在广州开幕。主旨发言环节,中国工程院院士、深圳大学电子与信息工程学院院长丁文华围绕LMM语言大模型及AIGC近两年进展,探讨其对数字文娱带来的关键影响。
“大模型今年最重要的新特征,是开始理解物理世界。”丁文华表示。借助多模态感知,大模型把分散的图文、声音、动作等信息对齐、关联,形成对事件、知识、因果与隐性关系的整体理解。
“大模型的到来,将使周边设施、数字基础都发生非常大的变化。随着技术迭代,当前AIGC在内容生成、场景和镜头控制上已到达一定水平,基于生成式的特效已经超越传统方法,应用也愈加广泛。”丁文华表示。
一方面利用AI来辅助生产,基于文本或者故事片的设计意图和文本描述,通过大模型进行文生图,有了分镜头剧本后,再根据镜头进行人工拍摄,使文本和视频对齐形成再次镜头的拼接和配合;另一方面利用AI进行创作,根据数据信息制作专业静态、动态图表,结合相关描述生成具有年代性的场景,通过图片和视频进行情景再现。
当前,我国AIGC创作尚处于起步阶段,AI创作类应用与AI助手类应用用户数仍有较大差距,用户使用习惯仍待培育。数据显示,2025年7月,AI创作应用Web端总访问量接近3000万;AI助手类应用Web端总访问量超3亿,5款产品访问量超千万,总MAU约4300万。其中,DeepSeek居首位,其国内访问量超1.2亿,MAU约1300万。
丁文华认为,自2024年以来,LMM/AIGC大模型已经完成了巨大的进步,但当前AIGC生成视频的能力仍有局限。
在视觉呈现上,受限于训练素材,目前AIGC生成视频最高质量为HD(1920*1080),尚不普遍具备4K/8K生成能力;在故事叙述上,当前AIGC在事件、故事层面仍有较大差距,不支持正叙、倒叙、插叙、闪回等叙事手法,无法达到蒙太奇式呈现效果;在内容真实性上,生成内容无法保证符合物理世界的所有客观规律等。
“未来AIGC可能快速形成颠覆性生产能力,然而当前AI价值观与创作伦理仍需要规范,AIGC的迭代发展最终将是帮助人类进行创作,利用科技手段渲染和增强艺术效果,而不是替代我们的操作。” 丁文华说。





京公网安备 11011402013531号