漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2023-09-20 talkingdev

HF transformers,最新的背景移除技术

Matting是一种创建黑白掩膜以分割出图像重要部分的过程。它通常用于前景和背景的分割。智能手机的人像模式使用了一种与这里描述的ViTMatte相似的方法。这种技术发展现代化,为未来的图像处理技术开创了新的可能。此...

Read More
2023-09-19 talkingdev

更高效的微调视觉变换器

对预训练的视觉模型进行特定任务的微调,通常需要大量额外的计算能力。然而,研究人员已经提出了一种名为“显著通道调整”(SCT)的方法,这种方法可以智能地选择模型中需要微调的部分,使用的额外设置要远少于其他方...

Read More
2023-09-18 talkingdev

SPDTransNet开源,应用Transformers进行更深入的睡眠分析

变压器是一种智能算法,通常用于处理文本或图像。这个项目调整了它们,使其能够与EEG数据一起工作,以更好地理解睡眠阶段。变压器的这种新应用打开了一个新的可能性,即通过使用复杂的深度学习模型来解决健康问题,...

Read More
2023-09-08 talkingdev

单一宽前馈层:转变你的编码解码器

在变压器网络中,前馈层占据了大部分的总权重。然而,如果你使用一个单一的大型前馈层,共享给编码器和解码器,你可以显著提高推理时间,同时性能的下降微乎其微。这是一种有效的优化手段,可以有效提升网络的运行效...

Read More
2023-08-22 talkingdev

AI的初期阶段:从LLMs、Transformer到扩散模型

我们当前的时代正处于一个全新的人工智能阶段,这个阶段的特点是LLMs、变压器和扩散模型的广泛应用。这与以往的人工智能发展阶段有着明显的区别。LLMs是一种复杂的深度学习模型,可以处理大量的数据并预测结果。变压...

Read More
2023-08-17 talkingdev

深度解析:transformer模型训练背后的数学原理

本文将深入探讨热门的《transformer数学101》文章,以及基于transformer架构的高性能分布式训练。变形金刚模型已经在深度学习领域广泛应用,其强大的处理能力和优异的性能表现赢得了业界的一致好评。然而,对于这种...

Read More
2023-08-15 talkingdev

Outlines:一种用于神经文本生成的开源库

Outlines是一个用于神经文本生成的库。它帮助开发人员通过与外部系统建立强大的接口来指导文本生成。Outlines与所有模型兼容,可以作为transformers库中generate方法的更灵活的替代品使用。

Read More
2023-08-09 talkingdev

新型图像增强方式:双聚合变换器(DAT)开源

研究人员已经开发出一种新的方法,叫做双聚合变换器(DAT),该方法通过空间和通道注意力来提升图像的超分辨率效果。DAT使用了诸如自适应交互模块和空间门前馈网络等特殊工具,其性能优于当前的其他方法。空间和通道...

Read More
2023-08-08 talkingdev

TorchScale——提供高效有效的Transformers扩展的PyTorch库

TorchScale是一款PyTorch库,让研究者和开发者能够更高效、更有效地扩展Transformers。它是为了满足对于大规模数据处理的需求而生的工具,通过使用TorchScale,我们可以在保持高性能的同时,实现Transformers的扩展...

Read More
2023-08-07 talkingdev

制造TPU的公司开启了新的芯片业务

近段时间来,大家在讨论的焦点主要集中在计算瓶颈问题上。这通常意味着创业者们将深入研究找出解决方案。一家新公司正在试图制造专门的Transformer芯片。我们希望这种芯片不仅可以用于推断,还能应用于训练。虽然这...

Read More
  1. Prev Page
  2. 9
  3. 10
  4. 11
  5. Next Page