本届人工智能大会的论坛有点不一样。
7月26日,2025世界人工智能大会在沪开幕。为了让大会论坛更具思辨性,本届大会特意设置了“AI三问”系列论坛,将学界与业界的专家聚焦起来,一同探讨AI在数学、科学、模型领域最关键的行业问题。
大会开幕两日来,系列论坛上嘉宾们的观点层出不穷,问题形形色色,但共通点在于,大家都谈到了AI技术快速发展,正在为自身行业带来范式性的变革。当AI浪潮不断奔涌,关键学科正站在发展的十字路口。
数学之问
Math for AI还是AI for Math?
当前,人工智能与数学的边界逐渐模糊。一方面,大模型参数突破万亿,传统基于经验的调参方法陷入瓶颈,模型的泛化能力、安全性、能耗控制等核心问题,亟待数学理论的系统性支撑;另一方面,AI对数学的反哺效应越发显著,DeepMind开发的AI系统AlphaGeometry ,在证明欧几里得平面几何定理方面超越国际数学奥林匹克竞赛参赛者平均水平,改写数学研究范式。
所以,数学与人工智能的关系是什么?到底是Math for AI还是AI for Math?这种双向需求的碰撞,让“数学之问”成为2025WAIC“AI三问”的起点——在2025WAIC“人工智能的数学边界与基础重构”论坛现场,科学家们试图求解。
有学者站在Math for AI一方。
菲尔兹数学科学研究院可持续发展中心主席路易斯·塞科认为,人工智能的诞生基于积累几千年的数学智慧,故而其未来的进步也将依赖于数学未来的发展。
中国科学院院士徐宗本也认为,发展人工智能必须从基础研究、原始创新抓起,这才是正确之路。
而另一方,AI现场自证实力——著名数学家、首位华人菲尔兹奖获得者丘成桐现场出题,上海人工智能实验室、商汤科技、阶跃星辰、MiniMax四个基础大模型现场解题并展示推理过程。
上海人工智能实验室拿到的是2025国际数学奥林匹克竞赛的一道几何题;阶跃星辰拿到的是不等式极值求解题;MiniMax拿到的是概率递归题,需要给N对袜子配对;商汤科技拿到的是平面几何题。
这场数学竞赛结果是,上海AI实验室的Intern-IMO成功破解题目,获官方认可;商汤“日日新”整个解答逻辑清晰,层层递进,展现多路径推理能力;阶跃星辰在不等式证明中调用工具修正错误,最终完成形式化验证;而MiniMax的M1不仅解出原题,还正确地回答了“条件减弱后,结论是否成立”。
Math for AI还是AI for Math?并没有绝对的答案。但是2025WAIC释放出一个强烈信号:人工智能的发展,必须夯实数学基础理论、发展原始创新。“数学界非常重视数学与AI模型的协同,目前国内已形成三、四支核心研究力量。这是个好现象,上海开了一个很好的头。”徐宗本说。
2025世界人工智能大会。新华社照片
科学之问
AI是否会引发学科融合和科研范式变革?
在27日的一场思辨会上,一位年轻研究员提问:“现在大家都很肯定科学基础大模型,但大模型需要涵盖不同的学科,如何兼容各学科的广度和深度呢?”
这个年轻人的疑惑,也是近年来困扰科学界的一个关键问题。大模型爆火后,科学界就一直在关注,是否能开发用于科研的科学基础大模型。但在本届人工智能大会上,记者了解到,由于跨学科难度大,对不同学科数据要求不一样,科学基础大模型的开发应用面临诸多挑战。
当场不少科学家尝试回答年轻人的问题。“我们现在的科学基础大模型,就像三十年前的电脑操作系统,能做的事很有限,能加载的应用程序也很有限。我们需要先把这个底座打好,再反复迭代,之后才能支持各个专业学科进行更深层次的拓展和创新。”中国科学院自动化研究所副所长曾大军说。
尽管科学基础大模型目前还处于“打地基”阶段,但科学界对于学科融合的大方向是十分坚定的。在场几乎所有科学家都认同,AI将推动科学界学科融合,并引发科研范式的变革,“我们人有局限性,每天只有24小时还要睡觉和休息,但人工智能可以克服这些,只要有算力支撑,再加上算法优化,机器一定能做到跨学科知识的融合。”
有人拿多模态大模型举例,最开始,文字大模型和图像大模型是并行的,现在慢慢融合,所以基础科学大模型也可能如此,开始时各学科各自独立,最后会融合到一起。
如何加速推进跨学科的基础科学大模型建构?答案可能是“开放”。中国工程院院士,之江实验室主任王坚表示:“AI重构的科研范式是开放的科学范式,不仅仅是赋能科学家,甚至是人人都可能成为科学家,我们传统认识中的科学,也正在发生变化。”
他举例说明,就在两个月前,一位美国高中生利用NASA公开在网上的NEOWISE望远镜的观测数据,通过人工智能技术发现了150万个新天体,并且作为唯一作者,在天文学顶级期刊上发表了研究成果。而他发明的算法,被其他团队用来进行天体研究,同样也产出了不错的成果。王坚说:“开放科学范式的构建,在今天显得前所未有的重要。”
2025世界人工智能大会。新华社照片
模型之问
模型泛化能力不足是否源于架构局限?
大模型产业同样在经历范式变革。在过去这大半年的时间里,主流的大模型训练模式,从原来的由OpenAI所开创的,以预训练为主、监督学习为辅的范式,逐渐转移到了注重提升推理能力的强化学习范式。
这一变化与人类对大模型性能要求的提高有关。随着近年来大模型的应用不断深入,人们发现,一些大模型在特定数据集上准确率达到99%,却会在现实场景中频繁翻车。业界开始反思,模型的泛化能力不足,是否是因为架构设计本身出了问题。
也就是在这个时候,DeepSeek横空出世,让人们见识到强化学习的优势。传统预训练模式,通过海量文本数据的学习,让大模型掌握语法、语义以及常识性知识,从而能够在多种任务上做出回应。强化学习模式,是通过让大模型不断试错,在与环境的交互中逐渐改进性能。这种方法弥补了数据不足带来的限制,还能让模型在复杂任务中表现得更加智能。
“传统的训练范式在面对复杂的选择时,也无法给出决策。强化学习最了不起的地方在于,大模型能够自推理,找到一条逻辑自洽的因果链达成目标,这就能显著提升大模型的性能。”阶跃星辰首席科学家张祥雨说。
但强化学习模式也有其弊端之处。商汤科技联合创始人、首席科学家林达华表示,使用强化学习训练模式的大模型幻觉现象会更加明显,思考过程较为冗长。
业界认为,强化学习并不是“终点”,范式的变革仍将继续。上海人工智能实验室青年领军科学家、书生大模型负责人陈恺认为,只能接受确定性的、数学代码式的反馈,是强化学习当前面临的瓶颈问题,未来强化学习还需解决“如何接受自然场景非确定性答案”。
原标题:《2025世界人工智能大会:有关AI的三个“灵魂之问”》
栏目主编:孟群舒
作者:解放日报 吴丹璐 俱鹤飞