漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2026-04-23 talkingdev

Qwen3.6-27B震撼发布:27B稠密模型实现旗舰级编码性能,超越前代397B MoE巨兽

Qwen团队今日发布了其最新的开源权重模型Qwen3.6-27B,在AI社区引发广泛关注。该模型虽然仅有27B参数(稠密架构),却在智能体编码任务中实现了旗舰级性能。据Qwen团队宣称,Qwen3.6-27B在全部主流编码基准测试中均...

Read More
2026-04-03 talkingdev

开源巨作!Arcee AI发布3990亿参数MoE模型Trinity-Large-Thinking,Apache 2.0许可商用无忧

在ChatGPT于2022年底掀起生成式AI浪潮后,开源大模型的接力棒在多家公司间传递。近日,美国AI初创公司Arcee AI正式发布了其重量级开源模型——Trinity-Large-Thinking。该模型采用混合专家架构,参数量高达3990亿,是...

Read More
2026-02-04 talkingdev

阿里发布Qwen3-Coder-Next:专为智能体编程优化的开源模型,混合MoE架构实现高效代码合成

阿里巴巴近日推出了专为编程智能体(Coding Agent)优化的开源模型Qwen3-Coder-Next。该模型基于创新的混合专家(Mixture of Experts, MoE)架构构建,旨在显著提升智能体在代码生成与执行环境交互方面的能力。其核...

Read More
2025-12-04 talkingdev

英伟达GB200 Blackwell NVL72服务器实现10倍性能飞跃,专为前沿MoE模型设计的架构突破

英伟达在混合专家模型(Mixture-of-Experts,MoE)的扩展性能方面取得了重大突破。根据官方公布的数据,其最新的GB200 Blackwell NVL72服务器配置,在MoE AI模型上的性能表现相比上一代的Hopper HGX200架构实现了高...

Read More
2025-12-04 talkingdev

英伟达发布性能数据:GB200 Blackwell AI服务器对月之暗面Kimi K2、深度求索R1等MoE模型推理性能提升高达10倍

英伟达于近日公布了其最新一代GB200 Blackwell AI服务器的性能基准测试数据,结果显示,相较于前代H100/H200平台,该服务器在运行特定类型的混合专家模型时,性能提升高达10倍。此次测试重点针对中国AI公司月之暗面...

Read More
2025-12-03 talkingdev

Mistral AI发布Mistral 3系列开源模型:含稀疏MoE巨兽与多款密集模型

人工智能领域迎来重要开源进展。Mistral AI正式发布了其新一代Mistral 3系列模型,该系列包含两大技术路线:一是三款不同规模的密集模型(参数规模分别为140亿、80亿和30亿),二是备受瞩目的Mistral Large 3稀疏混...

Read More
2025-11-29 talkingdev

Prime Intellect发布INTELLECT-3:1060亿参数开源MOE模型在数学代码科学领域超越更大模型

人工智能公司Prime Intellect正式推出INTELLECT-3模型,这是一个基于强化学习训练、具备1060亿参数的混合专家开源模型。该模型采用创新的MoE架构,通过动态激活专家网络显著提升计算效率,在数学推理、代码生成、科...

Read More
2025-11-07 talkingdev

深度解析月之暗面Kimi K2推理模型:国产MoE架构突破性能边界

中国人工智能实验室月之暗面(Moonshot AI)最新推出的Kimi K2 Thinking模型,以其创新的混合专家(MoE)推理架构引发行业关注。该模型在Humanity's Last Exam综合能力测评和BrowseComp浏览理解基准测试中,部分指标...

Read More
  1. 1
  2. 2
  3. 3
  4. Next Page