漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-09-18 talkingdev

Upscale AI获超1亿美元种子轮融资,基于开放标准构建AI网络基础设施新范式

人工智能基础设施初创公司Upscale AI近日宣布完成超过1亿美元的种子轮融资,本轮由Mayfield和Maverick Silicon联合领投。该公司专注于开发基于开放标准的网络工具套件,旨在解决AI计算中日益严峻的网络瓶颈问题。随...

Read More
2025-09-17 talkingdev

开源|揭秘月之暗面Kimi K2如何实现万亿参数模型20秒高效RL更新

月之暗面(Moonshot AI)团队在其技术博客中详细披露了Kimi K2模型在强化学习训练领域的重大突破。该团队成功实现了对1万亿参数模型的RL参数更新仅需约20秒,这一突破性进展解决了强化学习端到端训练过程中的关键效率...

Read More
2025-09-17 talkingdev

腾讯与百度今年境外债券发行总额达33亿美元,创中国科技公司纪录,为AI建设锁定低成本融资

中国互联网巨头腾讯和百度在2025年通过香港离岸人民币债券市场(点心债市场)合计发行33亿美元债券,创下中国科技企业有史以来最大规模的境外债券融资纪录。这一融资行为主要旨在为人工智能基础设施建设和技术研发获...

Read More
2025-09-17 talkingdev

中国科技巨头加速AI军备竞赛:阿里、腾讯、百度本月发债募资超50亿美元,2025年AI资本支出将破320亿美元

中国科技行业正掀起一场前所未有的AI投资浪潮。阿里巴巴、腾讯和百度三大巨头本月通过发行债券筹集超过50亿美元资金,重点投向人工智能和数字基础设施领域。若加上京东,这四家企业2025年在AI领域的资本支出总额预计...

Read More
2025-09-16 talkingdev

PyTorch与vLLM联手实现分解式推理,大幅提升大语言模型生产环境性能

Meta公司内部团队与vLLM、PyTorch展开深度技术合作,成功推出预填充/解码分离技术(prefill/decode disaggregation),这项突破性技术显著提升了大规模语言模型在生产环境中的推理性能。通过将推理过程分解为预填充...

Read More
2025-09-15 talkingdev

LLM后训练全流程深度解析:从SFT到RLHF与评估最佳实践

这篇技术长文系统性地剖析了大语言模型(LLM)的后训练完整生命周期,涵盖了监督微调(SFT)、奖励建模(Reward Modeling)以及强化学习方法(如RLHF)三大核心阶段。作者不仅详细阐述了如何通过人类反馈的强化学习...

Read More
2025-09-10 talkingdev

英伟达发布Rubin CPX GPU,专为超长上下文推理任务打造

英伟达正式推出全新Rubin CPX GPU,该芯片专为处理超过100万token的超长上下文窗口而设计,标志着人工智能推理基础设施迈向新阶段。采用“分解式推理”架构理念,Rubin CPX针对视频生成、复杂软件开发等长序列上下文任...

Read More
2025-09-04 talkingdev

瑞士发布Apertus开源AI大模型:支持千种语言,仅用公开数据训练

瑞士近日正式推出名为Apertus的开源人工智能大模型,该模型仅使用公开可获取的数据进行训练,支持超过1000种语言,提供80亿和700亿两种参数规格版本。这一举措标志着主权国家首次以独立身份参与全球AI竞争。Apertus...

Read More
  1. Prev Page
  2. 6
  3. 7
  4. 8
  5. Next Page