漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2023-10-31 talkingdev

Magnetic:轻松将LLM集成到您的Python中

Magnetic是一个用于轻松集成大型语言模型到Python代码的库。 这个名为Magnetic的库是由NLP引擎提供商Hugging Face发布的。基于Transformers,Magnetic允许您轻松地将大型语言模型集成到您的Python代码中,以进行各种...

Read More
2023-10-31 talkingdev

HF团队成功复现OpenAI的第一个RLHF代码库

HuggingFace团队成功复现了OpenAI的第一个RLHF代码库,该代码库于2019年发布,是引入了一些最初的RLHF(强化学习与人类因素)想法。这个代码库被称为“Generative Pretraining Transformer(GPT)”。通过在计算机上训...

Read More
2023-10-20 talkingdev

论文:应对面部反欺骗挑战,DGUA-FAS方法介绍

研究人员提出了DGUA-FAS方法,旨在解决面部反欺骗技术的挑战,特别是在面临领域变化和陌生攻击类型时。该方法使用基于Transformer的特征提取器和一个特殊的网络来模拟未知攻击。这种方法在处理已知和未知威胁方面更...

Read More
2023-10-19 talkingdev

论文:Zipformer一种新的语音识别Transformer模型

这项研究介绍了Zipformer,一种用于自动语音识别(ASR)的改进Transformer模型,它更快、占用更少内存,而且比广泛使用的Conformer效果更好。Zipformer是一种新型的语音识别模型,它使用了一种全新的架构,能够更快...

Read More
2023-10-06 talkingdev

Anthropic公司的下一步:朝向可解释性的发展

机械可解释性是通过将神经网络分解为更可解释的子部分来理解神经网络的过程。不幸的是,神经元本身往往不可解释。有一些深层次的原因,如叠加,导致了这个挑战。Anthropic公司的这项工作使用稀疏自编码器从一层Trans...

Read More
2023-10-02 talkingdev

Transformer-VQ:一种高效的线性时间关注模型

最新的研究成果Transformer-VQ,是一种全新设计的Transformer,由于其独特的基于向量的键和缓存功能,使得处理注意力的速度得到了显著的提升。这种新型的Transformer设计,不仅提高了处理速度,同时也保持了数据的准...

Read More
2023-10-02 talkingdev

视觉变换器的需求:寄存器

近几周出现的最酷、最简洁的视觉论文之一。视觉变换器使用“无用”的像素值作为存储全局信息的地方,这使得注意力映射变得难以解读。然而,如果你向词汇表中加入一个简单的 [reg] 标记,模型就会使用它,而不会将信息...

Read More
2023-09-25 talkingdev

HuggingFace变形金刚中的Flash Attention 2:性能大幅提升

最新版本的Flash Attention在提升模型上下文长度和性能的同时,其速度也得到了极大的提升。目前,Flash Attention正在被HuggingFace生态系统本地化支持的过程中。Flash Attention的升级不仅仅提升了模型的运算速度,...

Read More
2023-09-20 talkingdev

HF transformers,最新的背景移除技术

Matting是一种创建黑白掩膜以分割出图像重要部分的过程。它通常用于前景和背景的分割。智能手机的人像模式使用了一种与这里描述的ViTMatte相似的方法。这种技术发展现代化,为未来的图像处理技术开创了新的可能。此...

Read More
2023-09-19 talkingdev

更高效的微调视觉变换器

对预训练的视觉模型进行特定任务的微调,通常需要大量额外的计算能力。然而,研究人员已经提出了一种名为“显著通道调整”(SCT)的方法,这种方法可以智能地选择模型中需要微调的部分,使用的额外设置要远少于其他方...

Read More
  1. Prev Page
  2. 10
  3. 11
  4. 12
  5. Next Page