漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-05-23 talkingdev

Mamba在视觉任务中的必要性探讨

Mamba作为一种强大的Transformer替代方案,因其能够在保持性能的同时使用更少的FLOPs而备受关注。然而,最新研究表明,对于某些应用来说,Mamba可能并非必需。该研究通过实验表明,一个经过精心调优的CNN基线在一系...

Read More
2024-05-21 talkingdev

LeMeViT:通过可学习元令牌加速视觉Transformer

LeMeViT是一种新的方法,通过使用可学习元令牌来降低视觉Transformer的计算成本。这些元令牌能够高效地捕捉关键信息,从而显著提高推理速度。与传统的视觉Transformer相比,LeMeViT在保持高精度的同时,大幅减少了计...

Read More
2024-05-21 talkingdev

研究人员发现针对视觉变换器(Vision Transformers)的新型后门攻击手法

近日,研究人员发现了一种针对视觉变换器(Vision Transformers)的新型安全威胁。这种被命名为“SWARM”的攻击手法,利用一个“切换令牌”秘密激活模型中的后门行为,使其对用户具有高度的隐蔽性和危险性。视觉变换器是...

Read More
2024-05-16 talkingdev

论文:英汉文本到图像生成新标杆,混元-DiT的突破性发展

最新研发的混元-DiT在文本到图像扩散变换器方面设立了新的标杆,特别是对于英文和汉文。这一技术特征包括先进的变换器结构和精炼的数据管道,为持续的模型改进提供了可能性。而这一突破性的发展,不仅提升了英汉文本...

Read More
2024-05-10 talkingdev

一次缓存,永久有效:YOCO架构再塑GPU内存需求

YOCO架构是一种具有全局注意力能力的解码器-解码器模型,能有效地降低GPU内存需求。它包含一个自解码器和一个交叉解码器,使得关键-值对的缓存和复用更加高效。与传统的Transformer相比,YOCO在推理内存、延迟和吞吐...

Read More
2024-05-02 talkingdev

KAN:科尔莫戈洛夫-阿诺德Kolmogorov-Arnold网络的研究进展

如今,多层感知器在人工智能领域得到了广泛的应用,包括在Transformer的关注层之间。然而,它们使用的是固定的激活函数。最新研究论文建议在边缘使用学习的激活函数,利用科尔莫戈洛夫-阿诺德表示法(函数可以由更简...

Read More
2024-05-02 talkingdev

深度解析:Gemma的Transformer架构详解

理解Transformer的工作原理常常需要多次尝试。本篇博客文章通过详细解读Gemma架构,帮助读者深入理解Transformer。文章内容明了,包含了代码和图解,无论是对于初学者还是专业人士来说,都能从中获取到有价值的信息...

Read More
2024-05-01 talkingdev

论文:探索Mamba,先进计算机视觉的视觉基础模型

Mamba模型是一种先进的方法,擅长处理长序列,而不会带来传统Transformers的计算缺点。在计算机视觉领域,Mamba模型已经取得了显著的成果,并在多个应用中展现出其优越性。相比于传统的Transformers模型,Mamba模型...

Read More
2024-04-15 talkingdev

GPT引领人工智能新浪潮,初创企业受益匪浅

GPT(Generative Pre-trained Transformer)作为一种先进的自然语言处理技术,正逐渐成为人工智能领域的焦点。其最主要的价值在于极大地降低了初创企业使用机器学习功能的门槛。通过GPT,企业无需庞大的数据集或复杂...

Read More
2024-04-05 talkingdev

DeepMind研究实现Transformer模型动态计算优化

现代变压器模型在处理数据时,每个数据单元都使用相同的预测计算量,但事实上,不同数据单元的预测难度差异很大。DeepMind的最新研究突破了这一限制,允许模型在生成过程中根据数据单元的难易程度提前退出,从而减少...

Read More
  1. Prev Page
  2. 3
  3. 4
  4. 5
  5. Next Page