漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2023-07-21 talkingdev

微软与Meta扩展AI合作,将Llama 2带入Azure和Windows

微软与Meta宣布在Azure和Windows上支持Llama 2,一个大型语言模型家族。这是Llama 2首次商业化发布。该合作使得开发者可以在Azure上构建、微调和部署基于Llama 2的模型,同时还可以针对Windows本地使用进行优化。此...

Read More
2023-07-08 talkingdev

DragonDiffusion:一种采用特征对应提高文本到图像编辑精度的新方法

DragonDiffusion是一种全新的方法,旨在提高文本到图像模型的编辑精度。通过在扩散模型中利用特征对应,DragonDiffusion可以进行各种详细的图像修改,如移动和调整对象的大小,替换外观,以及拖动内容,同时保持图像...

Read More
2023-07-08 talkingdev

提升LLMs问题解决能力的新技术——FLACUNA

最近一份技术报告详细介绍了FLACUNA,这是一种可以提高问题解决能力的语言模型。FLACUNA是通过使用一个名为FLANMINI的自定义指令数据集对VICUNA进行微调而创建的,VICUNA是另一种大型语言模型。FLACUNA的出现,对于...

Read More
2023-07-04 talkingdev

人脑活动的潜在扩散模型实现高分辨率图像重建

研究人员提出了一种新的方法,使用一种扩散模型,具体来说是一种名为稳定扩散的潜在扩散模型(LDM),从通过fMRI捕获的人脑活动中重建高分辨率、高保真度的图像。该方法在保持生成性能的同时减少了计算成本,无需对...

Read More
2023-06-27 talkingdev

LLM Library (GitHub Repo):打造大型机器学习模型优化的可扩展工具箱

LLM Library是一款可扩展、便捷、高效的大型机器学习模型微调工具箱,旨在为整个社区提供用户友好、高速可靠、易于访问的解决方案。

Read More
2023-06-21 talkingdev

LOMO:高效的LLM训练(GitHub开源)

这项研究介绍了LOw-Memory Optimization(LOMO),这是一种旨在显著减少大型语言模型(LLM)训练所需资源的优化器,目前这一过程需要大量的GPU资源。LOMO的创新方法使得只需使用一台具有8个RTX 3090 GPU(每个具有24...

Read More
2023-06-16 talkingdev

新技术:改进型LoRA可快速微调大型模型

近日,研究人员推出了一种改进型的Low Rank Adaptation(LoRA)技术,可帮助研究和实践社区更有效地微调大型模型。以下是本次发布的主要内容: - LoRA被广泛应用于研究和实践社区,作为一种参数高效的微调大型模型...

Read More
2023-06-06 talkingdev

ViCo:使用扩散模型的轻量级文本到图像生成技术

近日,一项名为ViCo的新技术问世,其可以根据文本描述生成逼真的图像,并且能够从仅有的几个样本中捕捉到新概念的细节。与其他方法不同,ViCo对系统资源的消耗较小,不需要对原始模型的参数进行微调,但它仍然通过专...

Read More
2023-06-06 talkingdev

QLoRA: 优化量化LLMs的有效微调

本文介绍了一个名为"QLoRA"的开源代码库,旨在支持论文"QLoRA: Efficient Finetuning of Quantized LLMs",该论文旨在民主化LLM研究的资源获取。 ## 三个核心要点: - QLoRA是一个开源代码库,支持LLM研究领域的民...

Read More
2023-05-26 talkingdev

小模型击败GPT4在算术上

## 新闻内容: 最近的一项研究发现,小模型在算术方面甚至可以击败GPT4,这一发现令人惊喜。具体来说,已经有许多强大的基础模型被用于算术任务的微调,但是llama tokenizer(将数字分割成单个数字)在算术方面的优...

Read More
  1. Prev Page
  2. 11
  3. 12
  4. 13
  5. Next Page