漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2023-06-16 talkingdev

新技术:改进型LoRA可快速微调大型模型

近日,研究人员推出了一种改进型的Low Rank Adaptation(LoRA)技术,可帮助研究和实践社区更有效地微调大型模型。以下是本次发布的主要内容: - LoRA被广泛应用于研究和实践社区,作为一种参数高效的微调大型模型...

Read More
2023-06-06 talkingdev

QLoRA: 优化量化LLMs的有效微调

本文介绍了一个名为"QLoRA"的开源代码库,旨在支持论文"QLoRA: Efficient Finetuning of Quantized LLMs",该论文旨在民主化LLM研究的资源获取。 ## 三个核心要点: - QLoRA是一个开源代码库,支持LLM研究领域的民...

Read More
2023-06-02 talkingdev

GitHub推出GPT4Tools:控制视觉基础模型

近日,GitHub推出了GPT4Tools系统,该系统能够通过分析语言内容,管理多个视觉基础模型,使其能够根据用户在对话中的需求自动决定、控制和使用不同的模型。与众不同的是,它还可以通过简单的自我指导和LoRA方法,让...

Read More
2023-05-25 talkingdev

QLoRA 65B参数模型在48GB GPU上进行微调

在技术领域中,微调是一种比完全微调更便宜的模型微调方式。它通过仅更新模型的一个小而精心选择的子集来工作。然而,即使如此,在普通硬件上微调大型(超过13B参数)模型的成本仍然太高。量化减少了模型中参数的精...

Read More
2023-04-17 talkingdev

【技术新闻】C-LoRA方法在图像生成中取得重大突破

以下是本文的主要内容: - 文本到图像扩散模型在定制连续性概念时面临灾难性遗忘问题,导致过去概念的图像生成质量低下。 - 我们提出的C-LoRA方法通过持续自我正则化的低秩适应性克服了这个问题,在连续扩散方面优...

Read More
2023-04-14 talkingdev

C-LoRA:解决文本到图像扩散模型中的“灾难性遗忘”问题

以下是新闻内容的核心要点: - 文本到图像扩散模型在定制化时面临“灾难性遗忘”的问题,导致过去概念的图像生成质量较差。 - 研究人员提出了 C-LoRA 方法,通过持续自我正则化低秩适应来克服这个问题,在持续扩散方...

Read More
  1. Prev Page
  2. 17
  3. 18
  4. 19