当前位置: 首页 » 资讯 » 科技头条 » 正文

句子级溯源+生成式归因,C²-Cite重塑大模型可信度

IP属地 中国·北京 机器之心Pro 时间:2025-12-03 12:21:32



在人工智能快速发展的今天,大语言模型已经深入到我们工作和生活的方方面面。然而,如何让AI生成的内容更加可信、可追溯,一直是学术界和工业界关注的焦点问题。想象一下,当你向ChatGPT提问时,它不仅给出答案,还能像学术论文一样标注每句话的信息来源——这就是"溯源大语言模型"要解决的核心问题。

北邮百家AI团队联合小米大模型团队提出的溯源大模型C²-Cite,首创上下文感知的归因生成技术,不仅能让大模型在生成内容时自动标注精准的信息来源,更能确保生成内容与引用的外部知识高度语义对齐,实现每一处表述都有溯源依据、与参考来源深度协同,从根本上解决大模型生成内容的可信度问题。该工作已被国际顶级会议WSDM 2026收录。C²-Cite针对现有归因模型存在的关键缺陷,通过引入"上下文感知"机制,让引用标记从被动的占位符转变为带有上下文语义的特殊令牌,显著提升了引用质量和模型回答准确性。



论文标题:

C²-Cite:Contextual-Aware Citation Generation for Attributed Large Language Models

论文链接:

https://github.com/BAI-LAB/c2cite/blob/main/paper_wsdm_c2cite.pdf

代码仓库:

https://github.com/BAI-LAB/c2cite

引言

在信息爆炸的时代,大语言模型虽然能够生成流畅的文本,但"幻觉"问题(即生成虚假或不准确的内容)始终困扰着研究者。为了增强模型输出的可信度,研究人员提出了归因技术——在生成内容中添加明确的引用标记(如[1]、[2]),将每句话链接到具体的信息源。然而现有归因模型存在显著缺陷:

1.技术路径存在固有局限:上下文学习归因(P-ICL/I-ICL)依赖提示工程或迭代检索,耗时且泛化性弱;指令微调归因过度依赖高质量训练数据,缺乏对引用上下文的主动关联,大大削弱大模型的溯源能力;事后归因(Post-Hoc)采用两阶段处理,难以精确到句子级别,缺乏内在归因能力。

2.引用标记沦为“通用占位符”:现有模型未赋予引用标记(如 [i])上下文语义,仅将其视为无意义符号,导致引用与所指内容脱节、知识整合效果差;

3.引用质量与回答准确性失衡:部分模型虽能提升引用精准度,但会破坏回答的语义连贯性和正确性;另一部分模型则因引用混乱,难以支撑回答可信度;

这些问题导致现有模型要么引用错误/ 虚构、溯源失效,要么回答逻辑断裂、准确性下滑,难以同时满足 “引用可信” 与 “回答有效” 的核心需求。

C²-Cite溯源机制

为解决上述缺陷,北邮百家AI团队联合小米提出上下文感知的溯源大模型框架(C²-Cite),核心思路是通过“上下文语义融入” 让引用标记从被动占位符转变为带有明确语义指向的主动知识指针,具体包含三大关键组件:

1.上下文感知嵌入机制(Contextual-Aware Embedding):将多令牌引用标记(如“[i]”)标准化为单一引用符号令牌(如“ᵢ>”),并通过均值池化计算对应检索文档的语义嵌入,替换传统无意义占位符嵌入,使引用标记携带所指文档的语义信息;

2.上下文引用对齐机制Contextual Citation Alignment:引入引用路由器(二进制分类器)区分默认令牌与引用令牌,分别优化两类令牌的损失函数—— 默认令牌采用交叉熵损失保证回答流畅性,引用令牌通过语义相似度匹配实现与检索文档的精准对齐;

3.上下文注意力增强机制:通过距离衰减系数和注意力约束,放大后续生成令牌对先前引用令牌的关注度,维持引用与内容的语义连贯性,避免因引用插入导致回答逻辑断裂。

模型最终损失函数为默认损失、引用对齐损失、路由器损失与注意力增强损失的加权和,确保引用质量与回答准确性的协同优化。



实验

研究团队在ALCE基准测试的三个数据集(ASQA、ELI5、QAMPARI)上进行了全面评估,对比了多种主流归因方法

3.1 主实验结果



实验结果令人振奋:

引用质量大幅提升:C²-Cite++在引用F1分数上平均提升5.8%回答准确性显著增强:在回答正确性指标上平均提升17.4%泛化能力强:在不同质量的训练数据(SynSciQA 系列)上均表现稳定,即使使用普通训练数据也能超越依赖高质量数据的传统微调模型。

3.2 效率分析

在保证效果的同时,C²-Cite++还展现出卓越的计算效率。吞吐量(每秒处理样本数)测试显示,相比需要多轮迭代的方法(如Blueprint),C²-Cite++实现了最高的处理速度,在实际应用中具有明显优势。



3.3溯源生成模型中注意力模式的转变

注意力热力图可视化,直观展示了C²-Cite的工作机制。在原生LLM中,引用符号前后的句子几乎没有交互;而在C²-Cite中,后续句子对前文的注意力显著增强,形成了紧密的语义连接。这种"跨引用的语义桥梁"正是模型生成高质量溯源内容的关键。



总结

C²-Cite框架通过"上下文感知"这一核心理念,成功解决了现有归因大语言模型的关键痛点:

从符号到语义:将引用标记从被动占位符转化为主动知识指针精准对齐:通过路由机制确保引用编号与文档内容的准确匹配语义连贯:利用注意力增强保持引用前后内容的流畅性双重优化:同时提升引用质量和回答准确性,而非顾此失彼

最后,仅仅优化训练数据是不够的,大模型的溯源能力需设计有效的学习机制。相比于复杂的数据合成流程,C²-Cite通过其"上下文感知"的设计思想,在内容生成的过程依赖可靠的引用知识库,为构建更加可靠、透明的AI溯源系统提供了重要的技术路径。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。