近期,一项名为Qwen MoE的技术引起了业界关注。该技术在保持与强大7B参数模型相当性能的同时,成功将激活参数数量减少至原来的三分之一。这一突破性的进展不仅意味着更低的计算成本,还为大规模机器学习模型的可访问...
Read More近日,GitHub上出现了一个新的项目LlamaGym,该项目专注于通过在线强化学习方法对大型语言模型(LLM)代理进行微调。大型语言模型在近年来取得了显著的进展,但如何进一步提升其性能,尤其是在特定任务上的表现,成...
Read MoreCappy是一款小型模型,专门设计用于接收指令和候选完成,然后为完成度打分,以衡量其完成指令的程度。在这项任务上,Cappy的表现超越了许多更大的模型,这表明它可能作为训练和生成过程中的一个反馈机制。Cappy的成...
Read More这是一篇关于大规模模型训练的并行化技术的教程。文章详细介绍了不同类型的并行化技术,以及如何在训练大模型时实现高效的并行化。本文介绍了数据并行、模型并行和混合并行等不同的技术,并详细讨论了它们的优缺点。...
Read MoreMistral AI推出了一款名为Mistral Large的新型语言大模型,以与GPT-4和Claude 2等顶级模型竞争。该公司还推出了一项名为Le Chat的新服务,以与ChatGPT竞争。通过该公司的API,访问Mistral Large的成本为每百万输入令...
Read More本文介绍了LoRA+,一种优于现有Low-Rank Adaptation (LoRA)方法的微调大模型的方法。LoRA+通过为过程中的关键部分使用不同的学习速率来实现更好的性能和更快的微调,而无需增加计算需求。
Read More