IR-QLoRA是一种新方法,它可以提高量化大型语言模型的准确性,使它们更适合在资源有限的设备上使用。量化是一种通过降低浮点精度来减少计算资源需求的技术。虽然这种方法可以大大减少模型的计算量和存储空间,但它也...
Read MoreQwen团队发布了两个新的语言模型,分别是1.8B和72B的LLMs,与Llama 2相似,这些模型训练了3T个标记,并且在许多任务上表现出色。除了发布聊天版本和量化版本外,这些模型还在推理、数学和代码方面表现出色。
Read More使用较低精度的模型训练速度更快、更便宜,但不稳定。最近有很多关于量化训练的研究。这个代码库建立在这些基础上,提供易于阅读和可修改的代码,实现浮点8训练。
Read More本周,Mistral公司的CEO确认了Mistral的一个量化版本文件在HuggingFace上泄露,该技术使得在较弱的电脑和芯片上运行某些AI模型成为可能。据报道,该模型在EQ-Bench上超过了全球所有其他LLM模型,仅次于GPT-4。Mistra...
Read More近日,一款名为SliceGPT的新一代模型压缩工具问世。据悉,该工具可以适用于从Phi-2等小型模型到大型模型的多种规模,并可对模型的权重矩阵进行剪枝处理,最大程度保持模型质量的同时,实现模型参数的大幅度减少,以...
Read MoreUnsloth是一个轻量化库,可加速语言模型的微调。它现在可以轻松地与TRL在常见的模型架构上配合使用。Unsloth库通过一个简单的API使得模型训练和微调更快速。它可以帮助从训练数据中自动学习、优化和微调模型,使得模...
Read MoreJane Street公司是最高薪资的公司,其L1总薪资为350,000美元,是刚入行工程师的首选公司。Jane Street是一家专注于算法交易和量化分析的公司,经常吸引来自哈佛大学、麻省理工学院等世界顶尖学府的优秀毕业生。该公...
Read More本研究介绍了LLM-FP4,这是一种新的方法,通过在训练后将大型语言模型的权重和操作转换为4位浮点值来压缩它们。近年来,由于NLP任务的快速发展,语言模型的大小和计算需求不断增加,这给模型的部署和使用带来了很多...
Read More向量量化变分自编码器(VectorQuantized-VAEs)通常被视为在学习特定离散表示(例如,令牌或代码)时的最新技术。然而,它们通常复杂且脆弱。一篇新的论文提出了一种简单的量化方案,消除了代码本崩溃和复杂的设备,...
Read More