漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-03-28 talkingdev

Flux Inpainting技术登陆Hugging Face Hub:扩散模型再添新功能

近日,Hugging Face Hub上线了Flux扩散模型的图像修复(Inpainting)功能,标志着这一前沿技术在计算机视觉领域的又一重要突破。Flux作为新一代高性能扩散模型,其独特的架构设计显著提升了生成图像的质量和效率。此...

Read More
2025-03-13 talkingdev

[开源] Motion Anything:基于注意力掩码建模的多模态运动生成技术

近期,Motion Anything项目通过引入基于注意力的掩码建模(Attention-based Mask Modeling)技术,显著提升了条件运动生成的能力。这项技术不仅在空间控制上实现了更精细的调节,还在时间维度上提供了更高的灵活性,...

Read More
2025-03-06 talkingdev

BodyGen推出拓扑感知自注意力机制,提升机器人形态与控制协同设计效率

近日,BodyGen公司宣布推出一种创新的拓扑感知自注意力机制和时序信用分配机制,旨在显著提升机器人形态与控制协同设计的效率。这一技术突破通过优化机器人形态的拓扑结构,结合自注意力机制,能够更精准地捕捉机器...

Read More
2025-03-04 talkingdev

FlexPrefill推出动态稀疏注意力机制,提升LLM长序列处理效率

近日,FlexPrefill技术通过动态调整稀疏注意力模式和计算预算,显著提升了大型语言模型(LLM)的推理效率。该技术通过查询感知模式确定和累积注意力索引选择,优化了长序列处理的速度和准确性。FlexPrefill的核心在...

Read More
2025-02-25 talkingdev

Moonshot推出Block Attention混合算法,提升长上下文LLM性能

近日,Moonshot发布了一项名为Block Attention混合算法的创新技术,该算法在长上下文语言模型(LLM)中的应用表现卓越,被认为可与NSA相媲美。Block Attention混合算法通过优化注意力机制,显著提升了模型在处理长文...

Read More
2025-02-24 talkingdev

OmniServe框架开源,助力大规模LLM高效部署

近日,OmniServe发布了一个全新的统一框架,旨在优化大规模LLM(大语言模型)的部署效率。该框架结合了低比特量化和稀疏注意力机制等创新技术,显著提升了模型推理速度并降低了成本。通过低比特量化,OmniServe能够...

Read More
2025-02-24 talkingdev

Triton实现Naive Sparse Attention,助力高效长上下文注意力算法

近日,DeepSeek NSA论文因其可扩展且高效的长上下文注意力算法引发了广泛关注。然而,该论文并未提供相关代码。为此,一项基于Triton的实现应运而生,该实现可无缝集成到任何PyTorch代码库中。Triton作为一种高效的G...

Read More
2024-10-04 talkingdev

论文:RNN的时代是否已终结?

近年来,随着深度学习技术的快速发展,循环神经网络(RNN)在处理时序数据方面曾被广泛应用。然而,研究者们开始质疑RNN是否仍然是解决此类问题的最佳方案。RNN的结构虽然能够捕捉序列数据中的时间依赖性,但在处理...

Read More
  1. Prev Page
  2. 5
  3. 6
  4. 7
  5. Next Page