漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-07-04 talkingdev

强化学习优化代码合并:Osmosis-Apply-1.7B以低成本超越大型基础模型

Osmosis-Apply-1.7B是基于Qwen3-1.7B模型通过强化学习微调而成的专用模型,在代码合并任务中表现出色,其奖励分数高达0.9893,甚至超越了OpenAI o3等更大规模的基础模型,同时显著降低了成本。该模型在CommitPackFT...

Read More
2025-07-04 talkingdev

开源强化学习框架横向评测:TRL、Verl、OpenRLHF等九大工具深度解析

Anyscale研究团队近期对TRL、Verl、OpenRLHF等九大开源强化学习框架进行了系统性评测,涵盖采用度指标、系统特性和技术架构三大维度。该研究为开发者选择适合RLHF(人类反馈强化学习)、推理模型或智能体训练场景的...

Read More
2025-07-04 talkingdev

AI行业的摩尔定律终结?Gemini 2.5 Flash释放成本拐点信号

过去几年,AI行业一直遵循着类似摩尔定律的发展轨迹,即智能计算成本每年呈数量级下降,且每一代新模型不仅性能更强,运行成本也更低。然而,谷歌上周发布的Gemini 2.5 Flash模型打破了这一趋势——其输入token价格翻...

Read More
2025-07-03 talkingdev

[论文推荐]基于对比学习的图回归技术取得突破

最新研究将因果图学习技术成功拓展至回归任务领域,通过创新性地采用对比学习框架优化干预策略,显著提升了图级别回归任务中对混杂变量的处理能力。该技术突破来自arXiv预印本平台的最新论文,其核心价值在于解决了...

Read More
2025-07-03 talkingdev

PyTorch DCP采用模块化压缩技术将检查点体积缩减22%

PyTorch工程师团队通过分布式检查点(DCP)中的模块化压缩技术,成功将检查点文件体积减少22%。这项突破性优化显著降低了分布式训练过程中的存储占用和带宽消耗。文章详细阐述了该技术的集成步骤和关键设计选择,包...

Read More
2025-07-02 talkingdev

[论文推荐]将大型C++数学软件包迁移至C++20模块系统的实践与思考

数学软件传统上以相互依赖的"包"形式构建,其中大量采用C++编写,其接口通过头文件(#include)方式暴露给下游用户。这种从C语言继承的接口导出方式存在笨拙、不可靠且效率低下的问题。为此,C++20引入了"模块"系统...

Read More
2025-07-02 talkingdev

Figma正式提交IPO申请,迈向公开上市之路

设计协作平台Figma近日正式向美国证券交易委员会(SEC)提交了S-1文件,标志着其IPO进程迈出关键一步。作为全球领先的云端设计协作工具,Figma的上市申请引发了科技和设计行业的广泛关注。该公司以其创新的实时协作功...

Read More
2025-07-01 talkingdev

TradingAgents-基于多智能体LLM的金融交易框架开源

TauricResearch团队在GitHub上开源了TradingAgents项目,这是一个基于多智能体大语言模型(LLM)的金融交易框架。该框架通过结合多个智能体的协同决策能力,旨在提升金融交易的智能化水平和决策效率。TradingAgents...

Read More
  1. Prev Page
  2. 4
  3. 5
  4. 6
  5. Next Page