FastCuRL-1.5B-Preview 是一种基于课程强化学习(Curriculum Reinforcement Learning)的慢思维推理模型,该模型在较少的训练步骤中实现了最先进的性能,展示了其在复杂推理任务中的潜力。相比传统方法,FastCuRL 通...
Read More近期,一项关于大语言模型(LLMs)的研究揭示了其在处理复杂提示时是否具备多跳推理能力——即连接多个知识片段的推理过程。研究发现,这种潜在的推理过程确实存在,尤其在初始步骤中表现明显。然而,模型对连接知识的...
Read MoreMeta 最近引入了一种新的基准测试,用于评估语言模型的推理能力和知识水平。该测试向语言模型提供一个长序列数据,并要求模型输出能够重新生成该序列并停止运行的最短程序。这一过程被称为 Kolmogorov 压缩,且在多...
Read More近日,GitHub上发布了一个名为'Visual reasoning models'的开源工具包,旨在训练视觉语言模型(VLMs)以提升其基础逻辑和推理能力。该工具包由groundlight团队开发,主要专注于增强模型在处理复杂视觉数据时的理解和...
Read More近日,GitHub开源项目LM-Implicit-Reasoning引发了广泛关注。该研究深入探讨了语言模型在逐步隐式推理方面的表现,揭示了其在处理包含变量作为减数的表达式时的泛化能力不足的问题。语言模型在自然语言处理(NLP)领...
Read More这项研究探索了如何通过强化学习来教授AI语言模型解决数独谜题,特别采用了Group Relative Policy Optimization (GRPO)技术,应用于Qwen 2.5等模型,无需依赖外部数据或更大模型的蒸馏。研究设计了一个多方面的奖励...
Read More最新研究展示了如何通过强化学习技术,使AI语言模型具备解决数独谜题的能力。该研究采用了Group Relative Policy Optimization (GRPO)方法,并在Qwen 2.5等模型上进行了实验,无需依赖外部数据或更大模型的蒸馏。研...
Read More近期,一项针对OpenAI的o1/o3和DeepSeek的R1等推理型LLM的研究揭示了这些模型在逐步逻辑推理能力方面的表现。研究通过对比人类认知能力,对这些模型进行了基准测试。结果显示,尽管LLM在复杂任务中表现出色,但在需...
Read More