研究表明,经过调整的BERT模型在检测假新闻方面比通用的LLM模型(如GPT-3.5-turbo)更有效。BERT模型是一种预训练的自然语言处理模型,可用于各种文本任务。由于假新闻的传播日益严重,利用AI技术检测假新闻变得越来...
Read More最近,谷歌AI团队发布了一篇论文,介绍了他们新开发的自然语言SQL-7B模型。这一模型使用了一种名为T5的预训练语言模型。这种模型可以将人类语言转换为SQL查询。自然语言SQL-7B模型是目前最强大的文本转SQL模型之一,...
Read More近日,研究人员提出了一种名为共享网络预训练(SNP)的方法,用于提高视频和文本的联合学习效果。相较于以往的模型,这种方法更加高效和多功能,并且包含了一种独特的策略,称为显著语义强化(S3),以更好地理解句...
Read More苹果公司在人工智能系统中应用“Up captioning”技术来提高训练时的标签质量。该公司将此技术应用于预训练中,通过将C4重述为问题/答案对、指令等,加快了模型的收敛速度10倍,使模型的样本效率显著提高。但这也会增加...
Read MoreDepth Anything是一种新的单目深度估计方法,它依赖于约6200万张图像的大规模数据集来提高其精度。通过使用数据增强和预训练编码器的辅助监督,该模型实现了令人印象深刻的泛化能力,并在深度估计方面树立了新的标准...
Read More针对图像-文本训练中使用的视觉基础模型,研究人员提出了一种名为ViSFT的新方法,以提高其性能。ViSFT使用类似于语言模型中的微调的两阶段过程来增强视觉基础模型。首先,该模型使用大规模的无监督预训练来学习图像...
Read More本文探讨了当前主流的预训练语言模型加入多模态功能的范式。即,在编码器和文本模型之间对齐嵌入。该方法能够让语言模型更好地理解来自视觉和听觉等多个模态的信息,从而提高其自然语言处理的能力。近年来,语言模型...
Read More该项目提出了对比优化策略(CPO),以提高机器翻译中中等规模语言模型的性能。将该方法应用于13B参数ALMA模型,解决了监督微调的局限性,并取得了改进。CPO策略通过对模型的预训练进行增量式微调,有助于提高机器翻译...
Read More