Depth Anything是一种新的单目深度估计方法,它依赖于约6200万张图像的大规模数据集来提高其精度。通过使用数据增强和预训练编码器的辅助监督,该模型实现了令人印象深刻的泛化能力,并在深度估计方面树立了新的标准...
Read More针对图像-文本训练中使用的视觉基础模型,研究人员提出了一种名为ViSFT的新方法,以提高其性能。ViSFT使用类似于语言模型中的微调的两阶段过程来增强视觉基础模型。首先,该模型使用大规模的无监督预训练来学习图像...
Read More本文探讨了当前主流的预训练语言模型加入多模态功能的范式。即,在编码器和文本模型之间对齐嵌入。该方法能够让语言模型更好地理解来自视觉和听觉等多个模态的信息,从而提高其自然语言处理的能力。近年来,语言模型...
Read More该项目提出了对比优化策略(CPO),以提高机器翻译中中等规模语言模型的性能。将该方法应用于13B参数ALMA模型,解决了监督微调的局限性,并取得了改进。CPO策略通过对模型的预训练进行增量式微调,有助于提高机器翻译...
Read More本文探讨了开发自动驾驶汽车视觉基础模型(VFMs)所面临的挑战。通过分析超过250篇研究论文,它提供了有关数据准备,预训练和AI任务适应的见解,重点介绍了NeRF和3D高斯点渲染等前沿技术。
Read More苹果公司发布了一篇关于用自回归损失预训练图像模型的论文。它测量了扩展行为,并发现像语言一样,这些大规模无监督的图像模型具有非常可预测的行为。这项技术为图像识别和计算机视觉领域的研究提供了新的思路和方法...
Read MoreBERT是一种仅有编码器的Transformer。这意味着它通常用于以嵌入形式表示自然语言,而不是用于生成文本。重要的是,它是最早用于搜索的Transformer之一,因为它可以表示查询和要检索的信息。Mosaic团队集成了FlashAtt...
Read More本研究提出了一种深度学习方法,利用四个预训练的卷积神经网络模型来识别视频中的深度伪造人脸,可实现高精度检测。深度伪造技术已成为一种严重的威胁,对政治、社会和经济稳定造成了巨大的影响。该研究提出的方法可...
Read More