漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-09-16 talkingdev

PyTorch与vLLM联手实现分解式推理,大幅提升大语言模型生产环境性能

Meta公司内部团队与vLLM、PyTorch展开深度技术合作,成功推出预填充/解码分离技术(prefill/decode disaggregation),这项突破性技术显著提升了大规模语言模型在生产环境中的推理性能。通过将推理过程分解为预填充...

Read More
2025-08-19 talkingdev

深度解析:NVIDIA GPU与TPU架构差异如何影响大语言模型训练

最新技术分析揭示了NVIDIA GPU和谷歌TPU在人工智能计算领域的架构本质差异。现代机器学习GPU本质上是由专精于矩阵乘法的计算核心集群与高速内存条构成的异构体系,而TPU则是纯粹为矩阵运算设计的专用加速器,具有成...

Read More
2025-07-22 talkingdev

[开源]MoonshotAI发布Kimi K2技术报告:突破万亿参数模型训练瓶颈

月之暗面(MoonshotAI)团队最新发布的Kimi K2技术报告揭示了其大型语言模型系列的重大技术突破。该团队创新性地开发出MuonClip技术,通过将token高效的Muon优化器与新型QK-Clip技术相结合,成功解决了万亿参数模型训...

Read More
2025-07-18 talkingdev

[论文推荐] 突破长文本限制:新型“Power”注意力机制实现高效训练

一项名为“Power”注意力的创新技术通过引入超参数p,实现了对状态大小的独立控制,有效解决了长上下文训练中计算成本平衡的难题。该机制在长序列任务中表现优于标准注意力,并支持定制GPU内核,在64k上下文长度下速度...

Read More
2025-07-15 talkingdev

[论文推荐]基于能量的Transformer模型:可扩展的学习与思考者

一项名为'基于能量的Transformer'(Energy-Based Transformers)的新型架构在机器学习领域取得突破性进展。该技术摒弃了传统的直接预测方式,转而采用学习验证函数来评估输入与候选输出之间的兼容性得分。这种创新架...

Read More
2025-06-30 talkingdev

vLLM V1架构解析:揭秘高效推理服务的核心技术

vLLM是一款开源的大语言模型推理引擎,近日其团队发布了全新的V1架构。本文深入剖析了vLLM V1架构如何通过OpenAI兼容API服务器和核心引擎高效处理推理请求,实现业界领先的文本生成性能。该架构优化了推理请求的处理...

Read More
2025-06-24 talkingdev

SGLang集成Transformers后端:实现Hugging Face模型API与高性能引擎的无缝对接

近日,SGLang宣布成功集成Transformers后端技术,这一重大进展使开发者能够将Hugging Face的模型API与SGLang的高吞吐量、低延迟引擎相结合。该集成不仅显著提升了模型推理效率,还为自然语言处理(NLP)领域的实时应...

Read More
2025-06-06 talkingdev

Tokasaurus:专为高吞吐量工作负载优化的大型语言模型推理引擎

Tokasaurus是一款针对高吞吐量工作负载优化的大型语言模型(LLM)推理引擎,由斯坦福大学Scaling Intelligence团队研发。该引擎通过创新的架构设计和算法优化,显著提升了LLM在批量处理任务时的计算效率,为需要大规...

Read More
  1. 1
  2. 2
  3. 3
  4. Next Page