漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-04-16 talkingdev

[开源]OpenAI开源其FP4与MoE核心算子至Triton语言项目

OpenAI近日将其内部研发的高性能计算核心——FP4(4-bit浮点)与MoE(混合专家)系统的关键算子通过GitHub PR开源至Triton语言项目。这一举动标志着AI基础设施领域的重要进展:FP4作为新兴的低精度计算格式可显著提升...

Read More
2025-04-15 talkingdev

[开源]C3PO项目推出新测试时优化技术,提升混合专家大语言模型精度

由Tianyi实验室发布的C3PO项目在GitHub开源了一种创新的测试时优化技术,该技术通过基于相似参考样本重新混合专家权重,显著提升了混合专家(Mixture-of-Experts,MoE)大语言模型的准确性。这一突破性方法不仅优化...

Read More
2025-04-07 talkingdev

谷歌Gemini 2.5 Pro开放公测:AI Studio抢先体验,Vertex AI即将支持

谷歌宣布其新一代多模态大模型Gemini 2.5 Pro正式进入公测阶段,开发者现可通过Google AI Studio的Gemini API进行体验,而企业级平台Vertex AI的支持也即将上线。作为Gemini系列的最强版本,2.5 Pro在跨模态理解、长...

Read More
2025-04-07 talkingdev

DeepSeek R1模型1.58bit量化新突破:MoE层实现超低比特压缩

Unsloth团队针对DeepSeek最新R1模型成功开发出创新量化方案,其核心突破在于将混合专家(MoE)层压缩至惊人的1.58bit,同时通过动态量化技术保持其他模块在4-6bit精度。研究发现,模型Tokenizer的特殊结构为量化带来...

Read More
2025-04-04 talkingdev

[开源]Perplexity发布Pplx Cuda Kernels,MoE性能超越DeepSeek

人工智能领域迎来重要技术突破,Perplexity公司近日在GitHub开源了其混合专家系统(MoE)的核心计算库Pplx Cuda Kernels。这套基于CUDA的高性能计算内核在实际测试中展现出显著优势,在大规模运算场景下性能超越知名AI...

Read More
2025-02-14 talkingdev

论文:Jakiro利用Mixture of Experts优化Speculative Decoding,提升推理速度

近日,Jakiro团队通过引入Mixture of Experts(MoE)技术,成功优化了Speculative Decoding的性能。该方法通过生成多样化的预测结果,减少了候选预测之间的相关性,从而显著提升了推理速度。Speculative Decoding作...

Read More
2024-07-01 talkingdev

深入探讨:训练MoEs模型

Mosaic团队已与PyTorch合作,撰写关于如何扩展他们的MoEs模型至数千个GPU的文章。MoEs,全称Mixture of Experts,是一种深度学习的模型结构,其核心思想是将复杂的问题分解为若干个相对简单的子问题,然后由专家系统...

Read More
2024-05-31 talkingdev

论文:Yuan 2.0-M32,具备注意力路由的MOE专家混合模型

Yuan 2.0-M32是一款具备40亿参数的专家混合模型,其中任意时刻仅有3.7亿参数处于激活状态。尽管其计算需求仅为Llama 3 70B的1/19,但其性能却接近后者。该模型在2万亿个token上进行了训练,展现出了令人惊讶的强大性...

Read More
  1. 1
  2. 2
  3. 3
  4. Next Page