漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品

递归语言模型:突破上下文限制的新范式

talkingdev • 2025-10-17

4620 views

斯坦福大学研究人员提出的递归语言模型(RLMs)实现了突破性的推理架构创新。该模型通过REPL环境将输入上下文分解为可交互变量,实现了对无限长上下文的递归处理。在OOLONG基准测试中,基于GPT-5-mini构建的RLMs模型正确率超过GPT-5两倍以上,且单次查询成本更低。值得注意的是,当推理时输入超过1000万token时,RLMs在保持性能零衰减的同时,显著优于ReAct+测试时索引和提示检索等其他方法。这项技术标志着通用推理能力扩展的重要里程碑,其递归推理架构有望重塑大语言模型的演进路径,为处理超长文档、复杂逻辑链任务开辟了新方向。

核心要点

  • RLMs通过REPL环境实现无限长上下文的递归交互处理
  • 基于GPT-5-mini的RLMs在OOLONG测试中正确率超GPT-5两倍且成本更低
  • 模型在输入超1000万token时仍保持零性能衰减

Read more >