漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-12-04 talkingdev

英伟达发布性能数据:GB200 Blackwell AI服务器对月之暗面Kimi K2、深度求索R1等MoE模型推理性能提升高达10倍

英伟达于近日公布了其最新一代GB200 Blackwell AI服务器的性能基准测试数据,结果显示,相较于前代H100/H200平台,该服务器在运行特定类型的混合专家模型时,性能提升高达10倍。此次测试重点针对中国AI公司月之暗面...

Read More
2025-12-03 talkingdev

Mistral AI发布Mistral 3系列开源模型:含稀疏MoE巨兽与多款密集模型

人工智能领域迎来重要开源进展。Mistral AI正式发布了其新一代Mistral 3系列模型,该系列包含两大技术路线:一是三款不同规模的密集模型(参数规模分别为140亿、80亿和30亿),二是备受瞩目的Mistral Large 3稀疏混...

Read More
2025-11-29 talkingdev

Prime Intellect发布INTELLECT-3:1060亿参数开源MOE模型在数学代码科学领域超越更大模型

人工智能公司Prime Intellect正式推出INTELLECT-3模型,这是一个基于强化学习训练、具备1060亿参数的混合专家开源模型。该模型采用创新的MoE架构,通过动态激活专家网络显著提升计算效率,在数学推理、代码生成、科...

Read More
2025-11-07 talkingdev

深度解析月之暗面Kimi K2推理模型:国产MoE架构突破性能边界

中国人工智能实验室月之暗面(Moonshot AI)最新推出的Kimi K2 Thinking模型,以其创新的混合专家(MoE)推理架构引发行业关注。该模型在Humanity's Last Exam综合能力测评和BrowseComp浏览理解基准测试中,部分指标...

Read More
2025-05-08 talkingdev

Mistral发布企业级AI助手Le Chat,支持本地化部署

法国AI初创公司Mistral近日正式推出企业级对话助手Le Chat Enterprise,该产品最大特点是支持完全本地化部署,为企业数据安全提供保障。作为开源大模型领域的领军者,Mistral此次发布的解决方案允许企业将AI系统部署...

Read More
2025-04-24 talkingdev

DeepSeek-V3/R1多节点部署实现高吞吐与低延迟

最新研究表明,采用混合专家模型(MoE)架构的DeepSeek-V3/R1在多节点GPU部署中展现出显著性能优势。该模型通过创新的资源分配机制,在绝大多数应用场景下同步实现了更高吞吐量和更低延迟的双重突破。技术分析显示,...

Read More
2025-04-16 talkingdev

[开源]OpenAI开源其FP4与MoE核心算子至Triton语言项目

OpenAI近日将其内部研发的高性能计算核心——FP4(4-bit浮点)与MoE(混合专家)系统的关键算子通过GitHub PR开源至Triton语言项目。这一举动标志着AI基础设施领域的重要进展:FP4作为新兴的低精度计算格式可显著提升...

Read More
2025-04-15 talkingdev

[开源]C3PO项目推出新测试时优化技术,提升混合专家大语言模型精度

由Tianyi实验室发布的C3PO项目在GitHub开源了一种创新的测试时优化技术,该技术通过基于相似参考样本重新混合专家权重,显著提升了混合专家(Mixture-of-Experts,MoE)大语言模型的准确性。这一突破性方法不仅优化...

Read More
  1. Next Page