当前位置: 首页 » 资讯 » 科技头条 » 正文

MSU与FusionBrain LabCalibri:AI画图模型实现快速校准升级

IP属地 中国·北京 科技行者 时间:2026-04-07 22:42:28


人工智能绘画技术正在以惊人的速度发展,从最初简陋的图像到如今能够创作出令人惊叹的艺术作品。然而,就像一台高性能跑车可能因为轮胎气压不当而无法发挥最佳性能一样,现有的AI绘画模型也存在着类似的"调校"问题。莫斯科国立大学(MSU)与FusionBrain Lab的研究团队最近发现了一个令人意外的现象:通过调整极少数参数,就能让AI绘画模型的表现大幅提升。这项发表在2026年3月25日arXiv预印本平台上的研究(编号:2603.24800v1),提出了一种名为Calibri的创新方法,仅需优化约100个参数就能显著改善图像生成质量,同时还能加快生成速度。

这个发现的意义远比表面看起来重要得多。在当今AI绘画技术竞争激烈的环境中,每一点性能提升都可能带来巨大的商业价值和用户体验改善。传统的模型优化方法通常需要重新训练整个网络,这就像为了调整汽车的座椅位置而重新制造整辆汽车一样低效。而Calibri的方法更像是找到了汽车的"最佳调校点"——只需要微调几个关键设置,就能让整个系统的性能得到质的飞跃。

研究团队通过深入分析现有的Diffusion Transformer(DiT)架构发现,这些看似相同的模块实际上对最终图像质量的贡献并不均等。有些模块就像管弦乐团中的首席小提琴手,起着至关重要的作用,而有些模块则更像是伴奏,甚至某些模块在特定情况下还会产生负面影响。基于这个洞察,研究团队开发了Calibri系统,能够为每个模块找到最合适的"音量调节",从而让整个"乐团"演奏出更加和谐动听的"乐章"。

这项研究的创新之处在于将复杂的模型优化问题转化为一个相对简单的黑盒优化挑战。研究团队采用了进化算法CMA-ES来寻找最佳的校准系数,这个过程就像是在一个巨大的音响控制台上调节各个频道的音量,通过不断试验和调整,最终找到能够产生最佳音效的设置组合。更令人兴奋的是,Calibri不仅能提升单个模型的性能,还能将多个校准后的模型组合起来,形成一个性能更加强大的"模型联盟"。

一、揭开AI绘画模型的"内部秘密"

要理解Calibri的工作原理,我们首先需要了解现代AI绘画模型的基本构造。当前最先进的AI绘画系统,比如Stable Diffusion 3和FLUX,都采用了一种叫做Diffusion Transformer的架构。这种架构可以想象成一个由多个相同工厂车间组成的生产线,每个车间都负责对图像进行特定的处理和改进。

在传统的理解中,人们认为这些"车间"都同样重要,就像一条装配线上的每个工位都不可或缺一样。然而,研究团队通过精密的分析发现了一个令人惊讶的现象:这些看似相同的车间实际上对最终产品质量的影响大不相同。有些车间就像是关键的质检环节,它们的工作直接决定了产品的优劣,而有些车间的作用相对较小,甚至在某些情况下还可能引入缺陷。

研究人员设计了一个巧妙的实验来验证这个假设。他们使用FLUX模型生成了64个不同文本提示的图像,然后逐一"关闭"不同的车间,观察对最终图像质量的影响。结果令人震惊:关闭某些特定的车间不仅没有降低图像质量,反而在某些情况下还能提升图像的整体表现。这就像是发现装配线上的某个工位实际上在拖累整体效率一样。

更进一步的实验揭示了一个更加重要的发现。研究团队不仅尝试完全关闭某些车间,还尝试调节它们的"工作强度"——也就是给每个车间的输出结果乘以不同的系数。这个系数可以理解为车间的"工作积极性":系数为1表示正常工作,系数小于1表示降低工作强度,系数大于1表示加强工作力度,系数为0则表示完全停工。

实验结果显示,对于每个车间,都存在一个最优的工作强度系数,能够让整条生产线的最终产品质量达到最高水平。这个发现彻底颠覆了人们对AI模型内部工作机制的传统认知,证明了现有模型的内部"调校"远未达到最优状态。

这个发现的重要性不仅在于理论层面,更在于它为模型优化开辟了一条全新的道路。传统的模型改进方法通常需要重新设计网络结构或者重新训练整个模型,这需要消耗大量的计算资源和时间。而Calibri发现的这种"后期调校"方法,就像是在不改变汽车发动机结构的前提下,通过精确调节燃油喷射时机和点火时间来提升发动机性能一样高效。

二、Calibri的工作原理:像调音师一样优化AI模型

理解了AI模型内部的"不平等"现象后,Calibri的核心思想就变得相对简单了:为每个模块找到最合适的"工作强度",让整个系统达到最佳协调状态。这个过程就像是一位经验丰富的调音师在调试一台复杂的音响设备,需要精确调节每个频道的音量,让各种乐器的声音完美融合。

Calibri将这个调优问题表述为一个数学优化挑战:找到一组最优的缩放系数,使得模型在特定评价标准下的表现最大化。这里的评价标准通常是一个"奖励模型",可以理解为一个专门的"裁判",能够判断生成图像的质量优劣。就像体操比赛中的评委一样,这个奖励模型会根据图像的美观程度、与文本描述的匹配度等因素给出综合评分。

为了解决这个优化问题,研究团队选择了一种叫做CMA-ES的进化算法。这种算法的工作方式类似于生物进化过程:首先随机生成一批候选的系数组合,然后测试它们的性能,保留表现较好的组合,淘汰表现较差的,再基于优秀的组合生成新一代候选方案。这个过程不断重复,直到找到最优的系数配置。

选择进化算法而不是传统的梯度下降方法有其深层原因。AI绘画模型的图像生成过程极其复杂,涉及多个非线性变换和随机采样步骤,很难直接计算梯度信息。这就像是在一个充满迷雾的山区寻找最高峰,传统的梯度方法需要依赖清晰的地形图,而进化算法则更像是派出多支探险队在不同方向同时探索,通过比较和筛选找到最佳路径。

Calibri在具体实施时提供了三种不同精度级别的校准方式。第一种是"块级缩放",将同一个功能模块内的所有组件视为一个整体进行调节,这就像是调节音响中每个声道的总音量。第二种是"层级缩放",对模块内的不同层级分别进行调节,相当于对高音、中音、低音分别调节。第三种是"门级缩放",专门针对处理多模态数据的模型,对处理不同类型信息的门控单元分别优化。

这种分级调节策略的设计非常巧妙。粗粒度的调节需要优化的参数较少,训练速度较快,适合快速验证想法;细粒度的调节能够实现更精确的控制,但需要更多的计算资源。用户可以根据自己的需求和资源限制选择合适的粒度级别,这就像是摄影师可以选择自动模式、半自动模式或全手动模式来调节相机参数一样。

实验结果显示,即使是最粗粒度的块级缩放,也能带来显著的性能提升。以FLUX模型为例,使用57个参数进行块级校准,就能将HPSv3评分从11.41提升到13.29,同时将所需的推理步数从30步降低到15步。这意味着不仅图像质量得到了提升,生成速度也实现了翻倍的改进。

更令人兴奋的是,Calibri的优化过程是完全自动化的。用户只需要指定目标优化的评价指标,系统就会自动搜索最优的参数配置。整个过程就像是给汽车安装了一个智能调校系统,能够根据路况和驾驶习惯自动调节发动机参数,让汽车始终保持最佳性能状态。

三、集体智慧的力量:Calibri集成方法

在发现单个模型可以通过校准获得显著改进后,研究团队进一步探索了一个更加野心勃勃的想法:是否可以将多个经过不同校准的模型组合起来,创造出性能更加强大的"超级模型"?这个想法的灵感来自于一个简单而深刻的观察——在现实世界中,团队合作往往能够实现个体无法达到的成就。

Calibri集成方法的核心思想是同时优化多个模型的校准参数,让它们能够以最佳的方式协同工作。这个过程可以想象成组建一个交响乐团:每个乐手都有自己的特长和演奏风格,指挥需要调配每个乐手的演奏强度和时机,让整个乐团产生比单个乐手演奏更加震撼的音乐效果。

在技术实现上,集成方法需要同时优化两类参数:一是每个模型内部的校准系数,二是不同模型之间的权重分配。前者决定了每个模型内部各个组件的协调程度,后者决定了不同模型在最终结果中的贡献度。这个双重优化过程虽然增加了计算复杂度,但带来的性能提升也更加显著。

实验证明,即使是最简单的两模型集成,也能带来明显的性能提升。在FLUX模型上的测试显示,两模型集成的HPSv3评分始终高于单模型,而且这种优势在不同的推理步数下都能保持稳定。更重要的是,集成方法似乎具有一种"鲁棒性增强"的效果,即使在推理步数较少的情况下,也能保持较高的图像质量。

集成方法的另一个意外收获是推理步数的优化。原始FLUX模型通常需要30-50步才能生成高质量图像,而经过集成校准的模型在仅需10-15步的情况下就能达到甚至超越原始模型的质量水平。这种效率提升对于实际应用具有重要意义,因为推理时间的缩短直接转化为用户体验的改善和计算成本的降低。

研究团队还发现,Calibri集成与现有的Classifier-Free Guidance技术具有天然的兼容性。Classifier-Free Guidance是现代扩散模型中广泛使用的一种技术,通过同时运行有条件和无条件的模型来增强生成图像与文本描述的匹配度。Calibri集成可以自然地融入这个框架,对有条件和无条件两个模型分别进行优化,进一步提升整体性能。

值得注意的是,集成方法的设计哲学体现了研究团队对模型多样性价值的深刻理解。不同的校准配置会让同一个基础模型展现出不同的"个性"和"偏好",这种差异性正是集成方法能够发挥作用的基础。就像是组建一支具有不同专业技能的工作团队,每个成员的独特贡献都能为最终目标的实现增添价值。

四、广泛适用性验证:跨模型的卓越表现

为了验证Calibri方法的普适性,研究团队在多个不同的AI绘画模型上进行了全面测试。这些测试模型包括当前最先进的FLUX.1-dev、Stable Diffusion 3.5 Medium以及Qwen-Image,它们代表了现代AI绘画技术的不同发展方向和技术路线。

在FLUX.1-dev模型上的测试结果最为令人印象深刻。这个模型原本就被认为是当前最优秀的开源AI绘画模型之一,但Calibri仍然能够将其HPSv3评分从11.41提升到13.48,同时将推理步数从30步减少到15步。这种改进幅度相当可观,考虑到FLUX本身已经是一个高度优化的模型,这样的提升更显得难能可贵。

Stable Diffusion 3.5 Medium的测试结果同样令人鼓舞。该模型的HPSv3评分从11.15跃升至14.10,推理步数从80步大幅降低至30步。这种将近三倍的速度提升对于实际应用来说具有革命性意义,意味着用户可以更快地获得更高质量的图像生成结果。

Qwen-Image模型的改进虽然相对温和,但仍然表现出了一致的提升趋势。HPSv3评分从11.26增长到12.95,推理步数从100步降低到30步。这种改进模式的一致性证明了Calibri方法的确发现了AI绘画模型中的一个普遍性优化机会。

为了确保这些数值指标的改进确实对应着真实的图像质量提升,研究团队还进行了大规模的人工评估实验。他们招募了200名评估者,对5600个图像对进行了比较评估。评估结果显示,在整体偏好和文本对齐两个维度上,Calibri优化后的模型都明显优于原始模型。具体而言,在FLUX模型的测试中,51.87%的评估者更偏好Calibri生成的图像,只有40.80%的评估者偏好原始模型生成的图像。

这种人工评估的结果特别重要,因为它证明了Calibri的改进不仅仅是在特定评价指标上的"应试技巧",而是真正提升了图像的主观质量。在AI领域,存在一种被称为"奖励黑客"的现象,即模型学会了如何在特定评价指标上获得高分,但实际性能并没有真正改善。人工评估的正面结果有力地反驳了这种质疑。

特别值得关注的是,所有经过Calibri优化的模型都表现出了推理步数大幅减少的特征。这种现象表明,原始模型可能存在某种形式的"过度处理"问题,就像是一个厨师为了确保食物充分加热而过度烹饪,反而影响了最终的口感。Calibri通过重新调配各个组件的贡献度,让模型能够更高效地达到理想的图像质量。

研究团队还测试了Calibri在不同文本提示类型下的表现稳定性。从简单的物体描述到复杂的场景构造,从具体的人物肖像到抽象的艺术创作,Calibri在各种类型的生成任务中都表现出了一致的改进效果。这种跨任务的稳定性是Calibri方法实用价值的重要保证。

五、与传统优化方法的深度对比

为了更好地理解Calibri的价值,研究团队将其与当前主流的模型优化方法进行了详细对比。这种对比不仅涉及性能指标,还包括计算成本、实施复杂度等多个维度的综合评估。

研究团队选择Flow-GRPO作为主要的对比基准。Flow-GRPO是一种基于强化学习的模型对齐方法,代表了当前模型优化领域的先进水平。这种方法通过奖励模型指导,对整个模型进行端到端的微调,能够显著提升模型在特定评价指标上的表现。

在性能对比中,Calibri展现出了令人惊讶的竞争力。以Stable Diffusion 3.5模型为例,使用PickScore作为优化目标时,Flow-GRPO将模型的PickScore从22.40提升到23.13,而Calibri仅通过216个参数的调整就实现了从22.40到23.78的提升。更重要的是,Calibri还同时改善了其他评价指标,而Flow-GRPO的改进相对局限。

计算成本的对比更加突出了Calibri的优势。Flow-GRPO需要更新约1878万个参数,整个训练过程需要消耗大量的GPU时间和存储空间。相比之下,Calibri只需要优化约100个参数,训练成本降低了几个数量级。用一个形象的比喻来说,如果Flow-GRPO相当于重新装修整栋房子,那么Calibri就像是重新调节家具摆放和灯光配置,成本和复杂度完全不在一个级别。

更令人兴奋的发现是,Calibri和Flow-GRPO可以完美结合使用。研究团队测试了先用Flow-GRPO优化模型,再用Calibri进行二次校准的策略,结果显示这种组合方式能够实现更高的性能提升。这证明了两种方法在某种程度上是互补的:Flow-GRPO负责"大方向"的调整,而Calibri负责"精细调校"。

在实际部署的便利性方面,Calibri具有明显优势。Flow-GRPO需要重新训练模型,这意味着需要重新保存和分发整个模型文件,对于大型模型来说这是一个不小的负担。而Calibri只需要保存一组校准系数,文件大小可以忽略不计,几乎不增加模型的存储和传输成本。

研究团队还比较了两种方法的收敛速度。令人意外的是,尽管Calibri使用的是看似"原始"的进化算法,其收敛速度实际上比Flow-GRPO更快。在相同的GPU小时数下,Calibri通常能够达到更高的最终性能。这种效率优势主要来自于Calibri优化空间的精简设计——通过聚焦于最关键的校准参数,避免了在高维参数空间中的无效搜索。

多样性保持能力是另一个重要的对比维度。AI模型的过度优化往往会导致生成结果的多样性下降,这在实际应用中是一个严重问题。测试结果显示,Calibri在提升性能的同时能够更好地保持生成结果的多样性,而Flow-GRPO在这方面表现相对较差。这种差异可能与两种方法的优化机制有关:Calibri通过调节组件权重来改善协调性,而Flow-GRPO通过修改模型参数来强化特定行为模式。

六、技术细节与实施成本分析

深入了解Calibri的实施细节对于理解其实用价值至关重要。研究团队详细记录了在不同模型和配置下的训练成本,为潜在用户提供了宝贵的参考信息。

校准成本的分析显示出明显的规律性。首先,搜索空间的大小直接影响收敛时间。块级校准通常需要200-960次迭代,而更精细的门级校准可能需要2000次以上的迭代。其次,基础模型的质量影响校准效率。像FLUX这样已经高度优化的模型通常能够更快收敛,而相对较弱的模型需要更多的探索时间。

具体的GPU小时成本在32到356小时之间变化,这个范围对于大多数研究机构和企业来说是完全可以承受的。更重要的是,这是一次性的投入成本,一旦完成校准,就可以永久享受性能提升和推理加速的双重收益。考虑到校准后模型在推理时的速度提升(通常为2-3倍),这种投入很快就能收回成本。

研究团队还分析了不同硬件配置下的训练效率。虽然实验主要在NVIDIA H100上进行,但测试表明Calibri对硬件要求并不苛刻,在较老的GPU上也能有效运行,只是时间会相应延长。这种硬件兼容性降低了技术采用的门槛,让更多的研究者和开发者能够受益于这项技术。

校准过程的自动化程度很高,用户主要需要准备的是多样化的文本提示数据集和相应的评价标准。研究团队使用的T2I-compbench++数据集包含了广泛的文本描述类型,确保校准结果的泛化能力。评价标准的选择也很灵活,用户可以根据自己的需求选择不同的奖励模型,比如HPSv3侧重于整体美观度,而PickScore更关注文本对齐程度。

一个特别实用的发现是校准的可传递性。研究表明,在一个数据集上获得的校准参数往往能够在其他类似任务上产生正面效果,虽然可能不是最优的。这意味着用户可以使用公开的校准参数作为起点,再根据自己的具体需求进行微调,大大减少了从零开始的训练成本。

研究团队还提供了详细的超参数设置指南。CMA-ES算法的初始步长设为0.25,候选解的数量设为4+?3 ln d?(其中d是优化参数的维度),这些设置在大多数情况下都能产生良好的结果。用户也可以根据自己的计算资源和时间预算对这些参数进行调整。

值得注意的是,校准的鲁棒性很强。即使在训练过程中使用较少的推理步数(如15步),得到的校准参数在更多步数下仍然有效。这种鲁棒性简化了实际部署,用户不需要为不同的推理设置准备不同的校准参数。

七、深层机制洞察与理论意义

Calibri的成功不仅在于其实用价值,更在于它揭示了关于深度学习模型内部机制的深刻洞察。这些发现对于理解和改进现代AI系统具有重要的理论意义。

最核心的发现是模块贡献的不平衡性。传统观点认为,经过充分训练的深度学习模型应该已经达到了内部组件的最优协调状态。然而,Calibri的成功表明,即使是最先进的模型仍然存在显著的内部"失调"现象。这种失调可能来自于训练过程中的各种限制和近似,比如有限的训练数据、不完美的损失函数、以及梯度下降算法的局限性。

研究团队提出的一个重要假设是"训练-推理不匹配"现象。在模型训练阶段,通常使用相对简单的损失函数(如均方误差)来指导学习过程,而在实际应用中,我们更关心复杂的感知质量指标。这种目标不一致可能导致模型在训练完成后仍有进一步优化的空间,而Calibri正是利用了这个优化机会。

另一个有趣的发现是不同深度层的功能分化。通过分析最优校准系数的分布模式,研究团队发现模型的不同层确实承担着不同的功能角色。前期的层更多负责提取和处理基础特征,它们的校准系数通常较为保守;中期的层负责特征组合和抽象化,它们的校准系数变化较大;后期的层负责最终的细节完善,它们的校准系数通常较小但很关键。

这种功能分化的发现与近期关于"关键层"的研究形成了有趣的呼应。一些研究表明,在图像生成过程中,某些特定的层对最终结果有着决定性影响,而其他层的作用相对次要。Calibri的成功可能正是通过精确调节这些关键层的影响力来实现性能提升的。

从信息论的角度来看,Calibri可能解决的是模型内部的"信息瓶颈"问题。在深度网络中,信息在不同层之间传递时可能出现冗余或丢失,导致整体信息利用效率不高。通过调节不同层的权重,Calibri可能优化了信息流的分布,让每一层都能更有效地贡献于最终目标。

研究团队还观察到一个令人深思的现象:不同奖励模型指导下的校准参数会呈现不同的模式。这表明模型的内部表示空间可能比我们想象的更加丰富和可塑。同一个基础模型可能包含着多种潜在的"专业化"方向,而Calibri提供了一种激活这些不同专业化的方法。

这些理论洞察对于未来的模型设计具有重要启发意义。如果我们能够在模型设计阶段就考虑到后期校准的需求,可能能够创造出更加灵活和可调节的架构。这可能催生一种新的设计哲学:不追求单一的"完美"模型,而是设计具有多种优化潜力的"可塑性"模型。

八、局限性分析与未来展望

尽管Calibri展现出了令人兴奋的性能提升,但研究团队也诚实地分析了该方法的局限性和改进空间。这种客观的自我评估体现了严谨的科学态度,也为未来的研究指明了方向。

最主要的局限性来自于奖励模型本身的缺陷。Calibri的优化过程完全依赖于奖励模型的判断,而当前的奖励模型在某些方面仍然存在明显不足。特别是在识别生成图像中的解剖学错误方面,比如多余的手指、扭曲的面部特征等,现有的奖励模型往往缺乏足够的敏感性。这意味着Calibri可能会选择出在奖励模型看来质量很高,但实际存在明显缺陷的校准参数。

研究团队通过具体例子展示了这个问题。在一些测试案例中,经过Calibri优化的模型生成的图像虽然在整体美观度上获得了高分,但仍然存在一些人类观察者容易发现的不自然细节。这提醒我们,技术的进步不能完全脱离人类的感知标准,需要在自动化优化和人工监督之间找到平衡。

另一个潜在的局限性是优化空间的探索完整性。虽然CMA-ES是一种很有效的黑盒优化算法,但它仍然可能陷入局部最优解,特别是在高维度的搜索空间中。研究团队尝试了多种策略来缓解这个问题,比如使用不同的随机种子进行多次独立优化,但这并不能完全保证找到全局最优解。

计算成本虽然相比传统方法大幅降低,但对于资源有限的个人研究者来说仍然不够亲和。32到356小时的GPU时间对于许多小型研究团队来说仍然是一个不小的负担。研究团队正在探索更加高效的优化策略,比如使用更智能的初始化方法或者分层优化策略来进一步降低计算需求。

泛化能力是另一个需要深入研究的方面。虽然实验显示校准参数在不同任务间具有一定的可传递性,但最优的校准配置仍然会因为具体的应用场景而有所不同。用户可能需要针对自己的特定需求进行定制化校准,这增加了技术应用的复杂度。

展望未来,研究团队提出了几个有前景的改进方向。首先是奖励模型的增强,特别是在细节缺陷检测方面的能力提升。随着多模态大语言模型的发展,我们有望获得更加准确和全面的图像质量评估工具。

其次是校准策略的智能化。目前的Calibri需要用户指定优化目标和搜索策略,未来可能发展出能够自适应选择最佳校准方案的智能系统。这种系统可能能够根据输入文本的特征自动选择最合适的校准配置,实现真正的端到端优化。

第三个方向是校准粒度的进一步细化。目前的方法主要在层级或模块级别进行调节,未来可能深入到更细粒度的组件,比如注意力头或者激活函数的级别。这种超精细的校准可能带来更大的性能提升空间。

最后,研究团队还展望了校准方法在其他AI任务中的应用前景。Calibri的核心思想不仅适用于图像生成,可能也能在自然语言处理、音频生成等其他领域发挥作用。这种跨领域的技术迁移可能开启AI模型优化的新篇章。

说到底,Calibri代表了AI模型优化领域的一个重要突破。它不仅提供了一种实用的技术工具,更重要的是揭示了深度学习模型内部仍有巨大的优化潜力等待挖掘。这项研究告诉我们,有时候最有效的改进不需要革命性的架构创新,而可能来自于对现有系统的精妙调校。就像一位经验丰富的调音师能让同一台钢琴发出更美妙的音色一样,Calibri让现有的AI绘画模型释放出了前所未有的潜能。

对于普通用户而言,Calibri的价值在于它让高质量的AI图像生成变得更快、更好、成本更低。对于研究者而言,它开启了一个全新的研究方向,提醒我们在追求新算法的同时,不要忽视对现有技术的深度优化。对于整个AI领域而言,Calibri可能预示着一个新的发展阶段——从粗放式的模型扩张转向精细化的性能调优。这项由莫斯科国立大学和FusionBrain Lab合作完成的研究,为我们展示了技术进步的另一种可能性:不是通过增加复杂度,而是通过增加智慧。

Q&A

Q1:Calibri方法需要多少个参数就能改善AI绘画模型?

A:Calibri仅需要优化约100个参数就能显著提升AI绘画模型的性能。相比传统方法需要调整数千万个参数,Calibri的参数需求极少,但效果却很显著,就像只需要调节几个关键的音响旋钮就能大幅改善音质一样。

Q2:使用Calibri校准后的模型生成图片速度会变快吗?

A:会明显变快。实验显示,经过Calibri校准的模型不仅图像质量更好,生成速度还能提升2-3倍。比如FLUX模型原本需要30步才能生成高质量图像,校准后只需15步就能达到更好的效果。

Q3:普通用户如何使用Calibri来优化自己的AI绘画模型?

A:目前Calibri主要面向研究人员和开发者,需要一定的技术背景和计算资源。校准过程需要32-356小时的GPU时间,完成后就能永久享受性能提升。研究团队正在努力降低使用门槛,让更多用户能够受益。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。