漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2026-02-25 talkingdev

Claude Opus 4.6实现“智能产出比”突破,以更少算力解决更复杂任务

近日,一篇关于AI模型“智能产出比”的分析引发行业关注。该分析指出,评估AI模型性能不应仅关注其最终能解决多难的任务,更应关注模型为达到该性能水平所需的计算资源,即“智能产出比”。文章重点介绍了Anthropic公司...

Read More
2026-02-13 talkingdev

开源模型+Blackwell架构:头部推理服务商实现AI成本骤降10倍

近日,多家领先的AI推理服务提供商,包括Baseten、DeepInfra、Fireworks AI和Together AI,宣布通过在其服务中部署基于NVIDIA Blackwell架构的GPU并运行开源模型,成功将每次推理的令牌成本大幅降低了高达10倍。这一...

Read More
2026-01-06 talkingdev

英伟达黄仁勋宣布Vera Rubin芯片全面投产:训练部分大模型所需芯片数量仅为Blackwell的四分之一

英伟达创始人兼CEO黄仁勋近日宣布,其下一代AI芯片平台Vera Rubin已进入“全面生产”阶段。根据英伟达官方披露的技术信息,Vera Rubin平台在训练特定大型语言模型时,所需芯片数量可大幅减少至当前旗舰Blackwell架构平...

Read More
2025-11-29 talkingdev

Prime Intellect发布INTELLECT-3:1060亿参数开源MOE模型在数学代码科学领域超越更大模型

人工智能公司Prime Intellect正式推出INTELLECT-3模型,这是一个基于强化学习训练、具备1060亿参数的混合专家开源模型。该模型采用创新的MoE架构,通过动态激活专家网络显著提升计算效率,在数学推理、代码生成、科...

Read More
2025-11-24 talkingdev

揭秘大语言模型推理机制:从输入到输出的技术全流程

大语言模型(LLM)作为基于Transformer架构的神经网络,通过并行分析完整序列并计算词语间的全局关联性,实现了自然语言处理的突破性进展。在推理过程中,模型首先将输入文本转化为数字化的词元嵌入向量,随后通过Tr...

Read More
2025-11-05 talkingdev

超越标准大语言模型:线性注意力混合架构与文本扩散模型引领新浪潮

当前最强大的开源大语言模型普遍采用自回归解码器架构的Transformer模型,但近年来涌现出多种创新架构。这些模型不仅关注计算效率的提升,更致力于突破性能瓶颈。文本扩散模型通过模拟去噪过程生成连贯文本,在创造...

Read More
2025-10-17 talkingdev

论文推荐|ScaleRL:大型语言模型强化学习计算扩展的首个系统性研究框架

来自大规模实验的研究团队发布了名为ScaleRL的创新框架,这是首个针对大型语言模型强化学习计算扩展的系统性研究方法。该研究通过超过40万GPU小时的实验数据,构建了可预测的S型计算-性能曲线,揭示了RL训练中算法改...

Read More
2025-10-15 talkingdev

表征自编码器革新扩散Transformer:多模态预训练模型驱动图像生成质量突破

近期发布的表征自编码器(RAE)技术为潜在扩散模型带来重大升级。该技术通过使用DINO、SigLIP或MAE等预训练编码器替代传统变分自编码器(VAE),结合学习型解码器构建高维潜在空间。实验表明,这种新型架构能显著提...

Read More
  1. 1
  2. 2
  3. 3
  4. Next Page