GitHub最新开源的DeepMath数据集为人工智能领域带来突破性资源——该数据集包含10.3万道经过严格过滤和去污染的数学问题,专门用于提升大语言模型的逻辑推理能力。这一资源解决了当前数学推理训练数据质量参差不齐的核...
Read MoreM1是一种基于Mamba架构的推理模型,通过扩展测试时间计算进行训练。虽然尚未完全达到最先进模型的水平,但M1在长上下文处理和高吞吐量任务中表现出色。这一突破为大规模语言模型的推理效率提供了新的研究方向,特别...
Read MoreOpenAI正在准备发布GPT-4.1及其o3推理模型的完整版本。GPT-4.1是对GPT-4o的重新设计版本,并计划推出更小尺寸的mini和nano版本。尽管OpenAI目前尚未实现盈利,但其当前估值已达到3000亿美元。上个月,ChatGPT成为应...
Read MoreDeepSeek最新研究论文《Inference-Time Scaling for Generalist Reward Modeling》提出了一种创新方法,通过推理时缩放技术优化奖励模型,从而引导更强大的推理模型生成。该技术标志着这家中国初创公司的一项战略布...
Read MoreFastCuRL-1.5B-Preview 是一种基于课程强化学习(Curriculum Reinforcement Learning)的慢思维推理模型,该模型在较少的训练步骤中实现了最先进的性能,展示了其在复杂推理任务中的潜力。相比传统方法,FastCuRL 通...
Read MoreHugging Face 团队近日发布了其 DeepSeek 推理模型的开源复制项目 OpenR1 的最新更新。此次更新揭示了一个有趣的发现:当针对竞争性编程进行专门调优时,小型模型的表现可以超越更大规模的模型。这一发现不仅挑战了...
Read MoreReka公司近日开源了其最新推出的Reka Flash 3模型,这是一款拥有210亿参数的多功能模型,专门针对推理、聊天、编码和指令遵循等任务进行了优化。该模型在性能上与专有模型不相上下,并配备了32k的上下文长度,使其非...
Read MoreQwen团队近日发布了一款名为QwQ 32B的开源推理模型,该模型基于Apache 2.0许可证,性能与DeepSeek R1相当,甚至优于许多更大的蒸馏模型。团队通过结合基于结果的奖励机制、形式化验证和测试用例检查,使模型在数学和...
Read More