当前位置: 首页 » 资讯 » 科技头条 » 正文

丁文华:大模型开始理解物理世界,未来将形成颠覆性生产能力

IP属地 中国·北京 21世纪经济报道 时间:2025-12-18 14:18:04

南方财经记者魏彤 广州报道

12月18日, 2025年中国数字文娱大会以“新技术 新模式 新业态”为主题在广州开幕。主旨发言环节,中国工程院院士、深圳大学电子与信息工程学院院长丁文华围绕LMM语言大模型及AIGC近两年进展,探讨其对数字文娱带来的关键影响。

“大模型今年最重要的新特征,是开始理解物理世界。”丁文华表示。借助多模态感知,大模型把分散的图文、声音、动作等信息对齐、关联,形成对事件、知识、因果与隐性关系的整体理解。

“大模型的到来,将使周边设施、数字基础都发生非常大的变化。随着技术迭代,当前AIGC在内容生成、场景和镜头控制上已到达一定水平,基于生成式的特效已经超越传统方法,应用也愈加广泛。”丁文华表示。

一方面利用AI来辅助生产,基于文本或者故事片的设计意图和文本描述,通过大模型进行文生图,有了分镜头剧本后,再根据镜头进行人工拍摄,使文本和视频对齐形成再次镜头的拼接和配合;另一方面利用AI进行创作,根据数据信息制作专业静态、动态图表,结合相关描述生成具有年代性的场景,通过图片和视频进行情景再现。

当前,我国AIGC创作尚处于起步阶段,AI创作类应用与AI助手类应用用户数仍有较大差距,用户使用习惯仍待培育。数据显示,2025年7月,AI创作应用Web端总访问量接近3000万;AI助手类应用Web端总访问量超3亿,5款产品访问量超千万,总MAU约4300万。其中,DeepSeek居首位,其国内访问量超1.2亿,MAU约1300万。

丁文华认为,自2024年以来,LMM/AIGC大模型已经完成了巨大的进步,但当前AIGC生成视频的能力仍有局限。

在视觉呈现上,受限于训练素材,目前AIGC生成视频最高质量为HD(1920*1080),尚不普遍具备4K/8K生成能力;在故事叙述上,当前AIGC在事件、故事层面仍有较大差距,不支持正叙、倒叙、插叙、闪回等叙事手法,无法达到蒙太奇式呈现效果;在内容真实性上,生成内容无法保证符合物理世界的所有客观规律等。

“未来AIGC可能快速形成颠覆性生产能力,然而当前AI价值观与创作伦理仍需要规范,AIGC的迭代发展最终将是帮助人类进行创作,利用科技手段渲染和增强艺术效果,而不是替代我们的操作。” 丁文华说。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。