漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-03-04 talkingdev

FlexPrefill推出动态稀疏注意力机制,提升LLM长序列处理效率

近日,FlexPrefill技术通过动态调整稀疏注意力模式和计算预算,显著提升了大型语言模型(LLM)的推理效率。该技术通过查询感知模式确定和累积注意力索引选择,优化了长序列处理的速度和准确性。FlexPrefill的核心在...

Read More
2025-02-27 talkingdev

Google推出AI视频模型Veo 2,每秒成本高达0.5美元

Google近日发布了其最新的AI视频模型Veo 2,该模型的生成成本高达每秒0.5美元,相当于每分钟30美元。这一高昂的成本引发了业界的广泛关注。Veo 2作为Google在AI视频生成领域的最新成果,其技术复杂度和计算资源需求...

Read More
2025-02-26 talkingdev

FFT强势回归:高效替代Self-Attention的新选择

在深度学习领域,Self-Attention机制因其在处理序列数据时的高效性而广受欢迎。然而,最近的研究表明,快速傅里叶变换(FFT)可能成为Self-Attention的有力替代品。FFT作为一种经典的信号处理技术,能够在计算复杂度...

Read More
2025-02-26 talkingdev

Google Cloud推出首款Blackwell AI GPU驱动的A4X实例

Google Cloud近日发布了由Nvidia GB200 NVL72系统驱动的A4X虚拟机实例,该实例配备了72个B200 GPU和36个Grace CPU,专为大规模AI和高并发应用设计。A4X实例的训练效率是前代A3实例的四倍,并且与Google Cloud服务无...

Read More
2025-02-25 talkingdev

DeepSeek开源MLA核心框架FlashMLA,推动AI基础设施创新

近日,DeepSeek宣布开源其内部基础设施的一部分,首推MLA(机器学习加速)核心框架FlashMLA。这一开源项目已在GitHub上发布,旨在为开发者提供高效、灵活的机器学习加速工具。FlashMLA通过优化计算资源分配和任务调...

Read More
2025-02-25 talkingdev

Light Thinker:压缩推理轨迹以节省上下文空间

近日,一项名为Light Thinker的技术引起了广泛关注。该技术旨在将冗长的推理轨迹压缩为更小、更紧凑的表示形式,从而节省上下文空间,同时仍能有效引导模型。这一创新不仅提升了模型的效率,还为处理复杂任务时的资...

Read More
2025-02-24 talkingdev

OmniServe框架开源,助力大规模LLM高效部署

近日,OmniServe发布了一个全新的统一框架,旨在优化大规模LLM(大语言模型)的部署效率。该框架结合了低比特量化和稀疏注意力机制等创新技术,显著提升了模型推理速度并降低了成本。通过低比特量化,OmniServe能够...

Read More
2025-02-19 talkingdev

DeepSeek推出Native Sparse Attention技术,显著提升Attention计算效率

近日,DeepSeek公司推出了一项名为Native Sparse Attention的创新算法技术,旨在加速传统的二次Attention计算。该技术通过硬件对齐和原生可训练的稀疏Attention机制,实现了高达11倍的计算速度提升,同时保持了整体...

Read More
  1. Prev Page
  2. 4
  3. 5
  4. 6
  5. Next Page