MobiLlama是一个完全开源、透明、小型的语言模型,适用于移动设备。它的表现对于一个0.5B参数模型来说非常出色,甚至超过了一些更大的模型。
Read More近日,一项名为LLMLingua的新项目在GitHub上开源。该项目使用对齐后的小型语言模型检测提示中的无关标记,并实现对黑盒LLM的压缩推理,从而实现了高达20倍的压缩比,且性能损失最小。简言之,LLMLingua能够帮助开发...
Read MoreOrca模型是微软的一组小型模型,擅长推理任务。由于许多信息被保密,因此存在关于其有效性的担忧。现在发布了Orca 2,该模型可在HuggingFace上获得。它展现了良好的性能,超过了几个较大模型的推理基准。
Read More最近,一篇论文的作者们开发出了一种名为“共思”的方法,该方法利用大型语言模型来提高较小的“婴儿级”模型的训练效果。他们通过重新处理GPT-3.5-turbo的数据集,并以RoBERTa的方式训练较小的模型,使得该模型在语言测...
Read More