漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-09-15 talkingdev

LLM后训练全流程深度解析:从SFT到RLHF与评估最佳实践

这篇技术长文系统性地剖析了大语言模型(LLM)的后训练完整生命周期,涵盖了监督微调(SFT)、奖励建模(Reward Modeling)以及强化学习方法(如RLHF)三大核心阶段。作者不仅详细阐述了如何通过人类反馈的强化学习...

Read More
2025-08-24 talkingdev

深度解析:Claude Code为何成为代码生成领域的性能标杆

近期,AI研究机构MinusX发布的技术分析报告《Decoding Claude Code》引发开发者社区广泛关注。该报告通过逆向工程和架构分析揭示了Anthropic公司开发的Claude代码生成模型的核心技术优势。报告指出,Claude采用创新...

Read More
2025-07-04 talkingdev

开源强化学习框架横向评测:TRL、Verl、OpenRLHF等九大工具深度解析

Anyscale研究团队近期对TRL、Verl、OpenRLHF等九大开源强化学习框架进行了系统性评测,涵盖采用度指标、系统特性和技术架构三大维度。该研究为开发者选择适合RLHF(人类反馈强化学习)、推理模型或智能体训练场景的...

Read More
2025-06-11 talkingdev

[论文推荐]强化学习预训练(RPT):大语言模型与强化学习融合的新范式

强化学习预训练(Reinforcement Pre-Training, RPT)作为大语言模型(LLM)与强化学习(RL)协同进化的前沿技术,提出了一种革命性的规模化训练范式。该技术通过创新性地利用海量文本数据进行通用强化学习预训练,在...

Read More
2025-04-02 talkingdev

Open Hands推出32B代码模型,在代理编码任务中超越更大规模模型

Open Hands团队最新发布的32B参数代码模型(Open Hands LM-32B)在强化学习(RL)训练框架下,基于Qwen架构实现了突破性进展。该模型在代理编码任务(agentic coding tasks)中的表现已超越许多参数规模更大的竞品,...

Read More
2024-07-02 talkingdev

ReaLHF开源-提高训练效率

ReaLHF是一个创新的系统,通过在训练过程中动态重新分配参数并优化并行化,提升了人类反馈的强化学习(RLHF)的效率。这一技术的主要特点在于,它可以根据训练的实际需求,灵活调整系统参数和并行化优化策略,从而实...

Read More
2024-06-24 talkingdev

ReaLHF训练技术开源,刷新训练效率新高度

ReaLHF是一种全新的系统,它通过在训练过程中动态地重新分配参数和优化并行化,以提高来自人类反馈的强化学习(RLHF)的效率。ReaLHF通过创新的技术手段,实现了动态参数分配和并行化优化,从而达到了提高训练效率的...

Read More
2024-02-21 talkingdev

OpenRLHF开源,提供基于Ray的RLHF实现

近日,GitHub上有一个新的仓库OpenRLHF发布了。这是一个基于Ray的RLHF实现,专为Llama样式模型设计。该仓库集成了多种PPO稳定技巧,以提高性能。Ray是一款新型的分布式计算框架,它具有高效、易用等特点,支持快速构...

Read More
  1. 1
  2. 2
  3. 3
  4. Next Page