漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-12-04 talkingdev

英伟达GB200 Blackwell NVL72服务器实现10倍性能飞跃,专为前沿MoE模型设计的架构突破

英伟达在混合专家模型(Mixture-of-Experts,MoE)的扩展性能方面取得了重大突破。根据官方公布的数据,其最新的GB200 Blackwell NVL72服务器配置,在MoE AI模型上的性能表现相比上一代的Hopper HGX200架构实现了高...

Read More
2025-12-04 talkingdev

英伟达发布性能数据:GB200 Blackwell AI服务器对月之暗面Kimi K2、深度求索R1等MoE模型推理性能提升高达10倍

英伟达于近日公布了其最新一代GB200 Blackwell AI服务器的性能基准测试数据,结果显示,相较于前代H100/H200平台,该服务器在运行特定类型的混合专家模型时,性能提升高达10倍。此次测试重点针对中国AI公司月之暗面...

Read More
2025-12-03 talkingdev

Mistral AI发布Mistral 3系列开源模型:含稀疏MoE巨兽与多款密集模型

人工智能领域迎来重要开源进展。Mistral AI正式发布了其新一代Mistral 3系列模型,该系列包含两大技术路线:一是三款不同规模的密集模型(参数规模分别为140亿、80亿和30亿),二是备受瞩目的Mistral Large 3稀疏混...

Read More
2025-11-11 talkingdev

Moonshot AI开源Kimi K2思维模型:320亿激活参数,性能达非思维模型前沿水平

近日,前沿开源实验室Moonshot AI正式发布其新一代Kimi K2思维模型,该模型采用混合专家架构,具备320亿激活参数与1万亿总参数的庞大规模。在技术性能方面,Kimi K2在前沿知识理解、数学推理及代码生成领域均达到当...

Read More
2025-11-06 talkingdev

AWS EFA实现万亿参数模型突破:Perplexity发布分布式推理代码

人工智能研究机构Perplexity近日发布突破性代码,首次实现万亿参数混合专家模型在多个AWS服务器间的高效运行。这项技术突破使得算力基础设施相对薄弱的数据中心也能承载尖端AI模型的推理任务。当前大型语言模型面临...

Read More
2025-10-24 talkingdev

OpenEvolve实现算法自主发现:MoE负载平衡案例突破LLM推理速度5倍提升

加州大学伯克利分校研究团队开发的进化编码智能体OpenEvolve,成功将大型语言模型转化为自主代码优化器,在混合专家模型负载平衡任务中取得重大突破。该系统通过模拟自然选择机制,使LLM能够自主探索算法空间,最终...

Read More
2025-10-02 talkingdev

Thinking Machines实验室推出Tinker API:革新语言模型微调技术

Thinking Machines实验室近日正式发布Tinker API,这一创新平台为开源权重语言模型的精细化调优提供了灵活接口。该技术通过抽象化底层基础设施复杂度,显著降低了开发者部署大型语言模型的技术门槛。特别值得关注的...

Read More
2025-06-04 talkingdev

[论文推荐]SPACE:基于混合专家模型的基因组图谱预测新方法

近期发表于arXiv的SPACE(Supervised Prediction Approach for Genomic Profiles)提出了一种创新的基因组表征学习方法。该方法采用混合专家模型(Mixture of Experts)架构,通过监督学习范式实现对复杂基因组图谱...

Read More
  1. 1
  2. 2
  3. 3
  4. Next Page