微软与Meta宣布在Azure和Windows上支持Llama 2,一个大型语言模型家族。这是Llama 2首次商业化发布。该合作使得开发者可以在Azure上构建、微调和部署基于Llama 2的模型,同时还可以针对Windows本地使用进行优化。此...
Read MoreDragonDiffusion是一种全新的方法,旨在提高文本到图像模型的编辑精度。通过在扩散模型中利用特征对应,DragonDiffusion可以进行各种详细的图像修改,如移动和调整对象的大小,替换外观,以及拖动内容,同时保持图像...
Read More最近一份技术报告详细介绍了FLACUNA,这是一种可以提高问题解决能力的语言模型。FLACUNA是通过使用一个名为FLANMINI的自定义指令数据集对VICUNA进行微调而创建的,VICUNA是另一种大型语言模型。FLACUNA的出现,对于...
Read More研究人员提出了一种新的方法,使用一种扩散模型,具体来说是一种名为稳定扩散的潜在扩散模型(LDM),从通过fMRI捕获的人脑活动中重建高分辨率、高保真度的图像。该方法在保持生成性能的同时减少了计算成本,无需对...
Read MoreLLM Library是一款可扩展、便捷、高效的大型机器学习模型微调工具箱,旨在为整个社区提供用户友好、高速可靠、易于访问的解决方案。
Read More这项研究介绍了LOw-Memory Optimization(LOMO),这是一种旨在显著减少大型语言模型(LLM)训练所需资源的优化器,目前这一过程需要大量的GPU资源。LOMO的创新方法使得只需使用一台具有8个RTX 3090 GPU(每个具有24...
Read More近日,研究人员推出了一种改进型的Low Rank Adaptation(LoRA)技术,可帮助研究和实践社区更有效地微调大型模型。以下是本次发布的主要内容: - LoRA被广泛应用于研究和实践社区,作为一种参数高效的微调大型模型...
Read More近日,一项名为ViCo的新技术问世,其可以根据文本描述生成逼真的图像,并且能够从仅有的几个样本中捕捉到新概念的细节。与其他方法不同,ViCo对系统资源的消耗较小,不需要对原始模型的参数进行微调,但它仍然通过专...
Read More本文介绍了一个名为"QLoRA"的开源代码库,旨在支持论文"QLoRA: Efficient Finetuning of Quantized LLMs",该论文旨在民主化LLM研究的资源获取。 ## 三个核心要点: - QLoRA是一个开源代码库,支持LLM研究领域的民...
Read More## 新闻内容: 最近的一项研究发现,小模型在算术方面甚至可以击败GPT4,这一发现令人惊喜。具体来说,已经有许多强大的基础模型被用于算术任务的微调,但是llama tokenizer(将数字分割成单个数字)在算术方面的优...
Read More