加州大学伯克利分校研究团队开发的进化编码智能体OpenEvolve,成功将大型语言模型转化为自主代码优化器,在混合专家模型负载平衡任务中取得重大突破。该系统通过模拟自然选择机制,使LLM能够自主探索算法空间,最终...
Read MoreThinking Machines实验室近日正式发布Tinker API,这一创新平台为开源权重语言模型的精细化调优提供了灵活接口。该技术通过抽象化底层基础设施复杂度,显著降低了开发者部署大型语言模型的技术门槛。特别值得关注的...
Read More近期发表于arXiv的SPACE(Supervised Prediction Approach for Genomic Profiles)提出了一种创新的基因组表征学习方法。该方法采用混合专家模型(Mixture of Experts)架构,通过监督学习范式实现对复杂基因组图谱...
Read More最新研究表明,采用混合专家模型(MoE)架构的DeepSeek-V3/R1在多节点GPU部署中展现出显著性能优势。该模型通过创新的资源分配机制,在绝大多数应用场景下同步实现了更高吞吐量和更低延迟的双重突破。技术分析显示,...
Read More由Tianyi实验室发布的C3PO项目在GitHub开源了一种创新的测试时优化技术,该技术通过基于相似参考样本重新混合专家权重,显著提升了混合专家(Mixture-of-Experts,MoE)大语言模型的准确性。这一突破性方法不仅优化...
Read MorexAI近期公开发布了Grok-1模型的权重和架构。Grok-1是一种混合专家模型,拥有3140亿参数。发布的模型是Grok-1预训练阶段的原始基础模型检查点,这意味着它并未针对任何特定应用进行精调。该模型是由xAI使用自定义训练...
Read MoreJetMoe是一个基于混合专家模型的新AI系统,通过使用公共数据集和合理的计算资源进行训练,其性能与Meta的Llama 2 7B模型相媲美,但成本仅为10万美元。这一突破性的技术成果不仅展示了在不牺牲性能的前提下降低AI模型...
Read More科技巨头Databrix与Mosaic合作,成功训练了一个具有132B参数的混合专家(MoE)模型。该模型在3000个H100 GPU上进行了训练,目前其权重文件已经公开发布。此外,该模型也已在Databricks API上提供服务,供企业和开发...
Read More