Scale的LLM引擎包允许用户微调开源大型语言模型,以提高在特定领域用例上的性能。用户可以微调的模型之一是Llama 2,这是与Meta合作的结果。这种开源大型语言模型的优化,使其在特定领域用例上的性能得到提升,为行...
Read More该存储库介绍了主题扩散,这是开放领域个性化图像生成的一项突破性技术。它只需要一个参考图像,而且在测试时不需要进行微调。主题扩散技术的出现,将大幅提升图像生成的效率和准确性,且广泛应用于各类图像生成项目...
Read More最近,有一款名为AlignDet的两阶段预训练框架在GitHub上开源,旨在弥补物体检测算法中的预训练和微调程序之间的差距。AlignDet的设计目标是提高算法的性能、泛化能力以及收敛速度。通过对预训练和微调过程的深度优化...
Read More近年来,生成式人工智能(AI)在各个领域取得了令人瞩目的成果。本文将探讨生成式AI的主要组成部分、新兴趋势以及行业内的主要参与者。生成式AI的基础模型是其中最为重要的组成部分,它们包括在大量数据上训练的机器...
Read More微软与Meta宣布在Azure和Windows上支持Llama 2,一个大型语言模型家族。这是Llama 2首次商业化发布。该合作使得开发者可以在Azure上构建、微调和部署基于Llama 2的模型,同时还可以针对Windows本地使用进行优化。此...
Read MoreDragonDiffusion是一种全新的方法,旨在提高文本到图像模型的编辑精度。通过在扩散模型中利用特征对应,DragonDiffusion可以进行各种详细的图像修改,如移动和调整对象的大小,替换外观,以及拖动内容,同时保持图像...
Read More最近一份技术报告详细介绍了FLACUNA,这是一种可以提高问题解决能力的语言模型。FLACUNA是通过使用一个名为FLANMINI的自定义指令数据集对VICUNA进行微调而创建的,VICUNA是另一种大型语言模型。FLACUNA的出现,对于...
Read More研究人员提出了一种新的方法,使用一种扩散模型,具体来说是一种名为稳定扩散的潜在扩散模型(LDM),从通过fMRI捕获的人脑活动中重建高分辨率、高保真度的图像。该方法在保持生成性能的同时减少了计算成本,无需对...
Read More