AI21实验室近日发布了一款新型语言模型——Jamba,它采用了独特的模型结构,旨在实现比Transformers更高的效率,同时保持相当的性能水平。Jamba模型的最大亮点在于其创新性地融合了MoE(Mixture of Experts)层,这使...
Read More最新研究项目YOLOX-ViT在水下机器人领域中引入了一种创新的目标检测方法,该方法通过整合视觉变换器(Visual Transformers)和知识蒸馏(Knowledge Distillation)技术,显著提高了目标检测的准确性和效率。该技术的...
Read More近日,一项名为ViT-CoMer的神经网络模型问世,增强了Vision Transformers(ViT)在密集预测任务中的表现,而无需预训练。这项研究由卡内基梅隆大学的学者领导,他们在GitHub上公开了相关代码和数据集。ViT-CoMer能够...
Read MoreMUSE是一种使用Transformers的掩蔽图像生成模型。HuggingFace和Stability AI已经合作开源复现该模型,并发布了训练代码、模型检查点和论文。虽然这些模型的训练时间不如一些最好的图像扩散模型长,但它们显示出了很...
Read More微软的最新模型现已在HuggingFace上提供研究用途。Phi-2是一种基于Transformers的语言生成模型,它被训练用于生成各种文本,包括问答、对话和自然语言生成。该模型采用的是自回归模式,即在生成下一个单词或字符时,...
Read More近日,HuggingFace 发布了最新版本的 Transformers 4.36.0。此次更新新增了 Mistral 模型和 AMD 支持等多项功能。同时,safetensors 已成为默认设置。HuggingFace 的这次更新将为 AI 模型的开发和训练提供更加便利的...
Read More该项目探索了视觉转换器在基于扩散的生成学习中的有效性,揭示了Diffusion Vision Transformers(DiffiT)。该模型将U形编码器-解码器架构与新型时变自注意模块相结合。DiffiT可以生成高分辨率的图像,具有非常好的...
Read MoreMagnetic是一个用于轻松集成大型语言模型到Python代码的库。 这个名为Magnetic的库是由NLP引擎提供商Hugging Face发布的。基于Transformers,Magnetic允许您轻松地将大型语言模型集成到您的Python代码中,以进行各种...
Read More近几周出现的最酷、最简洁的视觉论文之一。视觉变换器使用“无用”的像素值作为存储全局信息的地方,这使得注意力映射变得难以解读。然而,如果你向词汇表中加入一个简单的 [reg] 标记,模型就会使用它,而不会将信息...
Read More最新版本的Flash Attention在提升模型上下文长度和性能的同时,其速度也得到了极大的提升。目前,Flash Attention正在被HuggingFace生态系统本地化支持的过程中。Flash Attention的升级不仅仅提升了模型的运算速度,...
Read More