研究人员提出了针对大型语言模型(LLMs)的补丁级别训练,以提高训练效率。补丁级别训练是一种新的技术,目的是优化大型语言模型的处理能力。这种方法通过在训练过程中引入更精细的补丁级别,提高了模型的训练效率,...
Read MoreMistral公司与Nvidia携手研发的全新多语言模型Nemo 12B已经正式发布。这款模型采用了全新的分词器进行训练,展现出了强大的多语言和英语处理能力。值得一提的是,Nemo 12B还支持128k的上下文。这种强大的性能,无疑...
Read MoreHugging Face近日推出了一套名为SmolLLM的小型语言模型套件,其性能超越许多大型模型。这主要得益于数据集的精心策划和管理。SmolLLM以其精细的设计和优化,展示出了小型语言模型的巨大潜力和价值。这种模型不仅在处...
Read More近日,一种名为解耦拒绝训练(DeRTa)的新方法被提出,这种新方法通过解决拒绝位置偏差问题,进一步提高了大型语言模型(LLMs)的安全性调优效果。LLMs在各类应用场景中起着重要作用,安全性问题也因此变得尤为重要...
Read More近日,研究人员提出了一种新的方法——标签驱动的自动提示调整(LAPT),用于视觉语言模型如CLIP的异常值检测。这种新方法可以自动识别出数据集中的异常值,提高模型在处理各种情况时的灵活性和准确性。通过LAPT,可以更...
Read MoreMARS是一种全新的文本到图像(T2I)生成框架,它引入了语义视觉-语言集成专家(SemVIE)的特征。这种新型框架的主要目标是改进现有的T2I生成技术,使其能更好地理解和处理复杂的视觉语言任务。借助SemVIE,MARS能够实现...
Read More最近,一种名为猞猁的模型在检测语言模型生成幻觉(即生成与输入无关的信息)方面,大幅优于现有的最先进技术。这一新模型的出现,将有助于我们更好地理解和控制语言模型的输出,避免信息的误导和混淆。猞猁模型的成...
Read MoreLookback Lens是一个直接的模型,用于检测大型语言模型中的上下文幻觉。它通过在预测过程中引入更多的上下文信息,来解决大型语言模型(LLM)在生成文本时可能出现的幻觉问题。这种新的方法旨在提高模型预测的准确性...
Read More