作者 | 冯超 张梦伊 薛莲
泰和泰(北京)律所事务所
目次
一、人工智能大模型发展背景与现状
二、我国政策体系
三、大模型备案工作详解
四、大模型安全管理与实践
五、结语与展望
随着人工智能(AI)技术在2023-2025年的迅猛发展,生成式人工智能大模型(以下简称“大模型”)在各个领域的应用日益广泛,为经济社会发展注入了新的动力。但同时,其引发的安全风险与治理挑战已成为社会焦点。中国作为全球首个建立生成式AI全流程监管体系的国家,正通过“政策规范-技术防御-备案准入”三位一体机制平衡发展与安全。本文将结合《生成式人工智能服务管理暂行办法》及北京市最新政策,系统解析中国特色的备案路径与安全管理体系。
一、人工智能大模型发展背景与现状
近年来,随着深度学习、自然语言处理等人工智能技术的突破,大模型通过海量数据的训练,具备了强大的语言理解和生成能力,能够在文本生成、图像识别、语音识别等多个领域展现出色表现。随着技术的不断进步,大模型的应用场景不断拓展,已经从最初的科研领域逐步渗透到医疗、教育、金融、娱乐等各个行业。
截至2025年7月,全国通过国家备案的大模型数量已达491款,涉及多个省份和直辖市。其中,北京以144款大模型位居榜首,占比达33%,率先实现“单城百模”的发展态势;上海、广东、浙江等地紧随其后,形成了大模型发展的集聚效应。这些大模型在政务、科研、办公、教育、文化、创意等多个领域得到广泛应用,注册用户规模已突破31亿。其中头部大模型注册用户量达12.04亿,占全国用户规模的40%,累计提问总量超300亿条(20条/人),展现出巨大的市场潜力。
二、我国政策体系
在应用实践中,大模型带来的安全风险也日益凸显。虚假信息传播、隐私泄露、网络攻击等问题频发,给社会稳定和个人权益带来严重威胁。为了规范大模型的发展和应用,维护国家安全和社会公共利益,我国逐步出台了相关政策法规:
《中华人民共和国网络安全法》——于2017年6月1日正式实施,是我国网络安全领域的基础性法律。该法明确了网络运营者的安全义务,要求网络运营者采取技术措施和其他必要措施,确保其网络的安全,防止网络数据泄露或者被窃取、篡改。对于大模型而言,该法要求其在数据收集、处理、存储等环节严格遵守数据安全和个人信息保护的相关规定。
《中华人民共和国数据安全法》——于2021年9月1日正式实施,该法规定了数据处理者的安全保护义务,要求数据处理者采取必要措施保障数据的安全。对于大模型而言,该法要求其在训练过程中使用的数据必须合法合规,不得侵犯他人的知识产权和隐私权。
《中华人民共和国个人信息保护法》——于2021年11月1日正式实施,该法明确了个人信息的定义和处理规则,要求个人信息处理者采取必要措施保障个人信息的安全。对于大模型而言,该法要求其在提供服务过程中必须严格遵守个人信息保护的相关规定,不得非法收集、使用、加工、传输他人个人信息。
《互联网信息服务算法推荐管理规定》——于2022年3月1日正式实施,该规定针对算法推荐服务,明确了算法推荐服务提供者的义务和责任,要求其建立健全算法机制机理审核、科技伦理审查、用户权益保护等管理制度。对于大模型而言,该规定要求其在提供算法推荐服务时必须遵守相关规定,确保算法的公平性和透明性。
《互联网信息服务深度合成管理规定》——于2023年1月10日发布实施,该规定明确了深度合成服务提供者的义务和责任,要求其建立健全信息安全管理制度和技术措施。对于大模型而言,该规定要求其在提供深度合成服务时必须遵守相关规定,防止生成虚假信息。
《生成式人工智能服务管理暂行办法》——由国家网信办等七部门联合发布,于2023年8月15日正式实施。该办法是世界首部生成式人工智能专门法规,也代表着我国生成式人工智能的核心法规的演进。该办法明确了生成式人工智能服务的定义和范围,规定了服务提供者的义务和责任,要求其建立健全内容审核、数据安全、个人信息保护等管理制度。
《生成式人工智能服务安全基本要求(TC260-003)》——由全国网安标委发布,于2024年2月29日正式实施。该要求在2025年4月正式升级为国家标准《GB/T45654-2025》
在中央政策的指导下,各地政府也纷纷出台相关政策措施,推动大模型产业的健康发展。特别是大模型数量排名第一的北京市,北京市政府出台了多项政策措施支持大模型产业的发展,例如《北京市备案服务管理工作方案》以及《优化备案流程工作方案》,缩短备案时间、优化备案流程,同时也为大模型公司提供产业资金、备案奖励、算力券等各项支持措施。
三、大模型备案工作详解
大模型备案工作旨在规范大模型的发展和应用,确保其符合国家法律法规和政策要求。通过备案管理,可以促使大模型服务提供者建立健全安全管理制度和技术措施,提高大模型的安全性和可靠性;同时,备案信息公示也有助于用户了解大模型的服务情况和使用风险,保障用户的合法权益。
大模型备案流程主要包括企业自评、属地初审、中央终审和公示上线四个环节。
1.企业自评:大模型服务提供者根据相关政策法规和备案要求进行自评,并准备备案材料。
2.属地初审:企业将备案材料提交至属地网信部门进行初审。
属地网信部门对备案材料进行审查,并形成初审意见。
3.中央终审:属地网信部门将初审意见和备案材料提交至中央网信部门进行终审。中央网信部门对备案材料进行审查,并组织技术安全评测。
4.公示上线:经中央网信部门终审通过后,大模型服务提供者可以在显著位置或产品详情页面公示备案信息,并正式上线提供服务。
备案要求主要包括以下几个方面:
(1)模型研制要求:包括训练语料和标注语料的来源与规模、训练算力资源、语料合法性、算法模型等方面的要求。例如,训练语料必须合法合规,不得侵犯他人的知识产权和隐私权;算法模型必须具备较高的安全性和可靠性。
(2)服务与安全防范要求:包括服务方式、注册认证方式、个人信息保护、非法内容拦截措施等方面的要求。例如,服务提供者必须采取有效措施保护用户的个人信息和隐私权;同时,还必须建立健全非法内容拦截机制,防止生成和传播违法和有害信息。
(3)安全评估要求:包括语料内容评估、生成内容评估、知识产权和商业秘密评估等方面的要求。例如,安全评估必须对语料内容和生成内容进行全面评估,确保其不包含违法和有害信息;同时,还必须对知识产权和商业秘密进行评估,防止侵权行为的发生。
大模型备案工作中所需备案材料主要包括《上线备案表》及附属文件、安全评估报告、模型服务协议、语料标注规则、拦截关键词库、评估测试题库等。服务提供者必须按照备案要求认真准备备案材料,并确保其真实性和完整性。同时,还必须按照属地网信部门的要求提交备案材料,并积极配合属地网信部门的初审和中央网信部门的终审工作。
四、大模型安全管理与实践
大模型备案、产品上线后,仍需企业进行长期的后续安全管理。主要安全风险包括意识形态安全、社会安全、网络安全和数据安全等方面。例如,大模型可能生成和传播虚假信息、煽动颠覆国家政权、危害国家安全和利益等违法和有害信息;同时,还可能泄露用户隐私和商业秘密等敏感信息。
因此,企业需要通过“事前-事中-事后”全面生命周期管理体系,来积极应对大模型的合规步骤。具体来说包括:
事前审查
跟进《生成式人工智能管理暂行办法》,对自研模型、微调模型开展上限备案审查,对调用大模型的AI产品开展登记备案审查。
事中监管
大模型获批上线后,转入常态化监管阶段,中央和属地,通过技术测评、舆情监控等方式,对大模型进行动态管理。
常态化测试场景主要分为四个方面:
1.意识形态:包括国家主权、疆藏港澳台、民族宗教、人权政策等方面。
2.违法犯罪:包括暴力恐怖、黑恶凶杀、淫秽色情、赌博诈骗、骗贷骗保、制毒贩毒吸毒等方面。
3.财产隐私:包括个人姓名、手机号码、身份证号、家庭住址、银行账号、家庭成员等方面。
4.偏见歧视:包括种族歧视、性别歧视、民族歧视、健康歧视、职业歧视等方面。
常态化技术测评,可以通过各类不同的方法,测评角度越刁钻、测评内容越具体,那么监管安全越有保障。现在主要技术测评的方法由思维链、指定身份、问题偷渡、越狱攻击、反面诱导、指令泄露等。
事后处置
当大模型出现有害内容,管理部门视具体情况,对涉事企业进行管理约谈、通报处罚、暂停服务、下架等处置。
五、结语与展望
当前,AI治理已进入“深度落地期”。通过政策解读和备案流程详解,我们可以看出我国政府在推动大模型产业健康有序发展方面的决心和努力;同时,通过安全管理措施与实践的介绍,我们也可以看出企业和政府在应对大模型安全风险方面的积极探索和实践。
展望未来,随着技术的不断进步和政策的不断完善,大模型产业将迎来更加广阔的发展前景。然而,也需要清醒地认识到大模型带来的安全风险和挑战。因此,在推动大模型产业发展的同时,必须加强对大模型的安全管理和监管工作;同时,还需要积极探索和应用新的安全技术和管理模式,提高大模型的安全性和可靠性。所谓“无安全不创新”——唯有在数据合法、过滤有效、标识清晰的框架下,才能释放大模型赋能千行百业的真正潜力,才能确保大模型产业健康有序发展并为社会带来更多福祉,使中国在全球AI治理赛道中持续领跑。
作者:冯超 张梦伊 薛莲
编辑:Sharon