漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-04-17 talkingdev

Prime Intellect开源Intellect 2分布式训练框架,32B网络实现强化学习推理

人工智能研究机构Prime Intellect近日取得重大突破,成功通过完全分布式的方式训练了一个参数量高达320亿(32B)的神经网络模型,并创新性地结合强化学习技术提升模型的推理能力。值得关注的是,该团队已将其核心训...

Read More
2025-04-07 talkingdev

谷歌Gemini 2.5 Pro开放公测:AI Studio抢先体验,Vertex AI即将支持

谷歌宣布其新一代多模态大模型Gemini 2.5 Pro正式进入公测阶段,开发者现可通过Google AI Studio的Gemini API进行体验,而企业级平台Vertex AI的支持也即将上线。作为Gemini系列的最强版本,2.5 Pro在跨模态理解、长...

Read More
2025-04-07 talkingdev

[论文推荐]DeepSeek提出推理时缩放技术,革新通用奖励模型训练范式

DeepSeek最新研究论文《Inference-Time Scaling for Generalist Reward Modeling》提出了一种创新方法,通过推理时缩放技术优化奖励模型,从而引导更强大的推理模型生成。该技术标志着这家中国初创公司的一项战略布...

Read More
2025-03-26 talkingdev

[开源]FastCuRL-1.5B-Preview:通过课程强化学习推动慢思维推理模型的进步

FastCuRL-1.5B-Preview 是一种基于课程强化学习(Curriculum Reinforcement Learning)的慢思维推理模型,该模型在较少的训练步骤中实现了最先进的性能,展示了其在复杂推理任务中的潜力。相比传统方法,FastCuRL 通...

Read More
2025-02-17 talkingdev

CodeI/O:通过代码输入输出预测提升大语言模型推理能力

近日,CodeI/O技术通过将代码转换为输入输出预测格式,显著提升了大语言模型(LLM)的推理能力。该方法通过教授通用推理原则,而非依赖代码语法,从而在多种推理任务中实现了性能优化。此外,通过多轮修订进一步验证...

Read More
2025-01-28 talkingdev

Llama推理模型在GitHub Gist上的最新进展

近日,GitHub Gist上发布了一个关于Llama推理模型的最小化工作复现版本。该模型最初由OpenAI提出,并由DeepSeek发布。该模型通过数学问题的格式和正确性奖励进行训练,展示了在长时间训练后出现的“顿悟”时刻。这一进...

Read More
2024-12-16 talkingdev

微软推出Phi-4:专注于复杂推理的小规模语言模型

微软最新发布了Phi-4语言模型,这是一个小型模型,但在处理复杂推理任务方面表现出色。Phi-4通过先进的自然语言处理技术,能够理解和生成复杂的文本内容,特别擅长于解决需要深度逻辑分析的问题。其小巧的模型尺寸意...

Read More
2024-07-10 talkingdev

论文:将系统2精炼为系统1:COT新思维链模型提升计算和推理效率

系统2模型是一种使用类似于思维链的方法,通过更多的测试时间计算来提升推理的模型。最新的研究发现,我们可以将这种行为提炼为一个系统1模型,使其运行速度更快,而准确性相似。系统1模型的主要优势在于其高效的运...

Read More
  1. Prev Page
  2. 2
  3. 3
  4. 4
  5. Next Page