Qwen团队近日发布了一款名为QwQ 32B的开源推理模型,该模型基于Apache 2.0许可证,性能与DeepSeek R1相当,甚至优于许多更大的蒸馏模型。团队通过结合基于结果的奖励机制、形式化验证和测试用例检查,使模型在数学和...
Read More近日,DeepSeek在GitHub上发布了名为DualPipe的开源项目,展示了其在模型并行计算领域的最新研究成果。DualPipe采用了一种新颖的并行策略,旨在优化模型的计算与通信重叠,从而显著提升整体性能。这一策略通过高效的...
Read More近期,一项针对OpenAI的o1/o3和DeepSeek的R1等推理型LLM的研究揭示了这些模型在逐步逻辑推理能力方面的表现。研究通过对比人类认知能力,对这些模型进行了基准测试。结果显示,尽管LLM在复杂任务中表现出色,但在需...
Read More科技界瞩目的人工智能公司DeepSeek正加快步伐,提前推出其备受期待的R2模型。原先计划于5月初发布R2模型的DeepSeek,现决定提前发布日期。新一代R2模型有望在编码技能上有所提升,并且能够处理除英语外的其他语言。...
Read More近日,DeepSeek宣布开源其内部基础设施的一部分,首推MLA(机器学习加速)核心框架FlashMLA。这一开源项目已在GitHub上发布,旨在为开发者提供高效、灵活的机器学习加速工具。FlashMLA通过优化计算资源分配和任务调...
Read More近日,DeepSeek NSA论文因其可扩展且高效的长上下文注意力算法引发了广泛关注。然而,该论文并未提供相关代码。为此,一项基于Triton的实现应运而生,该实现可无缝集成到任何PyTorch代码库中。Triton作为一种高效的G...
Read More近日,首个基于Muon优化器训练的大规模模型Moonlight 16B在GitHub上正式发布。该模型经过5.7万亿个token的训练,架构与DeepSeek v3高度相似。Muon优化器的引入为大规模模型的训练提供了新的可能性,显著提升了训练效...
Read More梁文峰,一位对冲基金经理,推出了自筹资金的开源AI平台DeepSeek,该平台因其创新的LLM(如DeepSeek-R1)而迅速获得全球关注,这些模型可与OpenAI的模型相媲美。DeepSeek采用更具成本效益的训练方法,并兼容消费级硬...
Read More