更关键的是,在 GSM8K 基准测试上,REFRAG 不仅能处理 8 倍更长的上下文(80 个 chunk vs 10 个chunk),运行速度还提升了一倍,最终成绩更是几乎翻倍,从 6.71 提升到 12…
全流程国产GPU,上下文提速100倍!中科院发布“线性复杂度”类脑大模型
Kimi K2宣布更新:上下文长度扩展至256K,带来更快的API
aiXcoder推出领域化程序分析平台 提供高精度上下文支撑
马斯克首个编码模型上线,编程飙进Top5!这9位华人天团爆肝打造
OpenAI的前世今生
代码能力超强。
TIM配上专用推理引擎TIMRUN,把推理过程变成类似树状的递归子任务结构,并动态修剪掉不再需要的子任务,就能让模型在输出窗口有限的情况下实现几乎无限制的长程推理。 在需要多跳推理和工具使用的研究型任务上…
DeepSeek V3.1震撼发布:128K上下文+推理飙升43%,碾压式升级!
DeepSeek-V3.1震撼发布:128K上下文MoE模型冲上HuggingFace热榜第四!
10/31 16:58
10/31 16:56
10/31 16:55