微信扫码实时跟踪AI前沿
大型语言模型的部署成本一直是其广泛应用的主要障碍之一。一篇来自AlphaXiv的最新研究提出了一种创新解决方案:通过强化学习微调递归语言模型(RLMs)。该方法的核心在于训练一个共享的策略,同时驱动父模型和子模型...
斯坦福大学研究人员提出的递归语言模型(RLMs)实现了突破性的推理架构创新。该模型通过REPL环境将输入上下文分解为可交互变量,实现了对无限长上下文的递归处理。在OOLONG基准测试中,基于GPT-5-mini构建的RLMs模型...