漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-02-29 talkingdev

MobiLlama: 移动设备上的全开源小型语言模型

MobiLlama是一个完全开源、透明、小型的语言模型,适用于移动设备。它的表现对于一个0.5B参数模型来说非常出色,甚至超过了一些更大的模型。

Read More
2023-12-21 talkingdev

LLMLingua-对齐后的LLM检测提示中的无关标记,实现对黑盒LLM的压缩推理

近日,一项名为LLMLingua的新项目在GitHub上开源。该项目使用对齐后的小型语言模型检测提示中的无关标记,并实现对黑盒LLM的压缩推理,从而实现了高达20倍的压缩比,且性能损失最小。简言之,LLMLingua能够帮助开发...

Read More
2023-11-22 talkingdev

微软发布小型语言模型Orca 2,训练模型进行推理学习

Orca模型是微软的一组小型模型,擅长推理任务。由于许多信息被保密,因此存在关于其有效性的担忧。现在发布了Orca 2,该模型可在HuggingFace上获得。它展现了良好的性能,超过了几个较大模型的推理基准。

Read More
2023-11-09 talkingdev

论文:跨视角训练提升小型语言模型效率

跨视角训练(SCT)可以提高小型语言模型的性能,使其能够生成先前仅可由较大模型实现的句子嵌入,从而优化性能和计算效率。

Read More
2023-08-07 talkingdev

论文:利用LLM技术提升婴儿级语言模型的性能

最近,一篇论文的作者们开发出了一种名为“共思”的方法,该方法利用大型语言模型来提高较小的“婴儿级”模型的训练效果。他们通过重新处理GPT-3.5-turbo的数据集,并以RoBERTa的方式训练较小的模型,使得该模型在语言测...

Read More
  1. Prev Page
  2. Next Page