漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2023-06-06 talkingdev

QLoRA: 优化量化LLMs的有效微调

本文介绍了一个名为"QLoRA"的开源代码库,旨在支持论文"QLoRA: Efficient Finetuning of Quantized LLMs",该论文旨在民主化LLM研究的资源获取。 ## 三个核心要点: - QLoRA是一个开源代码库,支持LLM研究领域的民...

Read More
2023-05-25 talkingdev

QLoRA 65B参数模型在48GB GPU上进行微调

在技术领域中,微调是一种比完全微调更便宜的模型微调方式。它通过仅更新模型的一个小而精心选择的子集来工作。然而,即使如此,在普通硬件上微调大型(超过13B参数)模型的成本仍然太高。量化减少了模型中参数的精...

Read More
2023-05-22 talkingdev

HuggingFace发布4位标准浮点数模型 (GitHub仓库)

HuggingFace发布了新的研究成果,使得在普通硬件上能够完成对65B参数模型的微调。这项研究使得量化技术不再局限于推理阶段,而是可以应用于训练过程中,从而大幅减少了模型所需空间。以下是该研究的三个核心点: -...

Read More
2023-04-21 talkingdev

微软推出代码集成LLMs的工具包

微软推出了一款名为Semantic Kernel (SK) 的轻量级SDK,可将人工智能大型语言模型(LLMs)与传统编程语言集成。这款创新型模型将自然语言语义功能、本地代码功能和基于嵌入式内存的功能融合在一起,以增强应用程序的...

Read More
  1. Prev Page
  2. 2
  3. 3
  4. 4