近期,GitHub上开源了一个名为CrystalFormer的Transformer模型,该模型利用空间群对称性生成晶体结构,显著提高了晶体生成的效率和数据友好性。晶体结构在材料科学、化学和物理学等领域具有重要应用,传统方法通常依...
Read More近期发表在arXiv上的研究论文提出了一种名为CellVTA的创新方法,该方法通过引入基于CNN的适配器模块,将高分辨率空间特征注入到基于视觉Transformer的模型中,显著提升了细胞实例分割的精度。这一技术突破在多个基准...
Read More法国人工智能研究机构Kyutai最新推出突破性语音互译系统,该系统基于多流Transformer架构,可实现高保真度的实时语音到语音翻译。该技术突破传统文本中转翻译模式,直接在声学层面进行跨语言转换,并保持原说话者的...
Read More近期,一项名为Mixture-of-Mamba的创新研究在人工智能领域引起广泛关注。该研究通过将模态感知稀疏性引入状态空间模型(SSMs),实现了高效的多模态预训练。与传统Transformer模型相比,Mixture-of-Mamba在文本、图像...
Read More视觉几何基础Transformer(Visual Geometry Grounded Transformer,简称VGGT)是一种前馈神经网络,能够直接从场景的一个、几个甚至数百个视角中推断出所有关键的3D属性,包括外部和内部相机参数、点云图、深度图以...
Read More最新的技术突破使得我们几乎可以通过在Diffusion Transformer中使用token替换来实现对任何图像的个性化,而无需进行额外的微调或训练。这一创新方法不仅大大简化了个性化图像的生成过程,还显著提高了效率。Diffusio...
Read MoreTransformer模型在自然语言处理和其他领域取得了显著的成功,而其核心之一是层归一化(Layer Normalization)。然而,最新的研究提出了一种替代方案:通过精心设计的tanh函数,可以在不依赖层归一化的情况下保持模型...
Read More近日,一项名为Mask-Enhanced Autoregressive Prediction(MEAP)的技术在GitHub上发布,该技术通过将Masked Language Modeling(MLM)整合到仅解码器的Transformer中,显著提升了信息检索任务的性能,同时保持了强...
Read More