漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-10-02 talkingdev

谷歌发布Tunix:基于JAX的LLM后训练工具库,加速大模型生产部署

谷歌开发者博客最新推出开源项目Tunix,这是一个基于JAX框架原生设计的专业化工具库,致力于简化大型语言模型从预训练到完全对齐、生产就绪的完整流程。该库为开发者提供了一套全面且友好的工具集,支持大规模模型对...

Read More
2025-09-26 talkingdev

OpenAI强化微调技术RFT成本暴增700倍,仅编码任务表现突出引争议

OpenAI最新推出的强化微调技术RFT旨在通过强化学习提升o4-mini模型在特定任务中的性能。该技术允许工程师通过灵活的评分器配置自定义奖励机制,理论上可在适用场景下实现显著性能突破。然而,其成本高达监督微调的70...

Read More
2025-09-19 talkingdev

WEIRD in, WEIRD out:AI的文化偏见危机

最新研究显示,当前主流生成式AI工具存在严重的文化偏见,其底层模型过度偏向代表"WEIRD"(西方化、高教育水平、工业化、富裕、民主)尤其是美国价值观的数据训练集。这种系统性偏差导致AI在非WEIRD文化区域的应用中...

Read More
2025-09-17 talkingdev

开源|揭秘月之暗面Kimi K2如何实现万亿参数模型20秒高效RL更新

月之暗面(Moonshot AI)团队在其技术博客中详细披露了Kimi K2模型在强化学习训练领域的重大突破。该团队成功实现了对1万亿参数模型的RL参数更新仅需约20秒,这一突破性进展解决了强化学习端到端训练过程中的关键效率...

Read More
2025-09-17 talkingdev

硅谷重金押注AI智能体训练环境,或成下一代AI基础设施竞争焦点

人工智能领域正迎来训练范式的重大转变。主流AI实验室正在大幅增加对强化学习环境的投入,据报告 Anthropic 明年相关预算可能超过10亿美元。这一趋势标志着AI训练从静态数据集转向交互式模拟环境,智能体可在其中练...

Read More
2025-09-15 talkingdev

LLM后训练全流程深度解析:从SFT到RLHF与评估最佳实践

这篇技术长文系统性地剖析了大语言模型(LLM)的后训练完整生命周期,涵盖了监督微调(SFT)、奖励建模(Reward Modeling)以及强化学习方法(如RLHF)三大核心阶段。作者不仅详细阐述了如何通过人类反馈的强化学习...

Read More
2025-09-12 talkingdev

Cursor利用强化学习优化Tab代码补全建议,接受率提升28%

AI代码编辑器Cursor近日宣布通过在线强化学习技术显著优化其Tab代码预测系统。该系统通过分析用户在代码库中的行为模式,每日处理超过4亿次请求,实时预测开发者下一步操作意图。基于海量用户接受与拒绝建议的交互数...

Read More
2025-09-11 talkingdev

开源|Mini-o3:开源多轮视觉推理模型挑战OpenAI o3

Mini-o3作为新兴开源视觉推理模型,实现了与OpenAI o3类似的多轮交互能力,支持高达数十轮的连续对话推理。该项目完全公开训练流程,涵盖数据构建、模型架构与训练策略,为学术界和工业界提供可复现的视觉-语言智能...

Read More
  1. Prev Page
  2. 3
  3. 4
  4. 5
  5. Next Page