Meta公司新推出的Emu图像生成模型已在用户偏好调查中超越SDXL。Emu模型是在11亿图像对上进行预训练的,只在几千张精心策划的图像上进行了微调。此模型将作为Meta新AI助手计划的主要支柱。Emu的高效性能,证明了大规...
Read MoreLLM微调中心是一个包含代码和洞察的平台,专门用于微调各种大型语言模型以适应您的使用场景。不论您是开发者,还是研究人员,甚至是业务决策者,都可以在此找到有用的资源。通过微调,大型语言模型的性能可以得到显...
Read More近日,研究人员第一次公开比较了RLHF和RLAIF两种技术的性能。结果发现,这两种技术在最终模型性能方面基本相同,相比于基线模型,有大约70%的人类用户更青睐使用这两种技术。RLHF和RLAIF的研究和开发,推动了人工智...
Read More近日,一篇深度解析如何使用PyTorch 2.0的torch.compile和Nvidia CUDA图表功能提升深度学习模型性能的文章引起了广泛关注。该文章详细介绍了借助CUDA图表在Llama 2上实现了2.3倍的速度提升。这对于对性能敏感的AI从...
Read More近日,WizardLM团队利用他们的Evol instruct技术显著提升了Llama代码的性能,甚至击败了Phind模型。此次成果尽管受到一些质疑,因为他们生成的指令直接提升了评估分数,而未使用固定的数据集,也没有把评估视为固定...
Read More人类反馈在改善语言模型对齐和整体性能方面扮演着关键角色。然而,使用近端策略优化进行训练的过程中存在一些挑战。最近的研究表明,可以直接针对人类偏好进行优化,从而绕过奖励模型。借助基于文本的强化学习,你可...
Read MoreLoRA,全称低阶适配器,可以帮助改变模型性能。这意味着,你不需要对模型中的每个参数进行微调,只需训练一个可以轻松插入的子集。在这种情况下,社区中训练了许多可以改变SDXL行为的LoRA。这个空间可以帮助你探索其...
Read MoreDeepEval 是一个提供 Pythonic 方式进行离线评估的工具,可以帮助您方便地将 LLM 流水线投入生产。LLM 流水线是一种机器学习模型开发流程,通过使用 DeepEval,开发者可以在不连接网络的情况下,对其进行评估和优化...
Read More最近,一篇论文的作者们开发出了一种名为“共思”的方法,该方法利用大型语言模型来提高较小的“婴儿级”模型的训练效果。他们通过重新处理GPT-3.5-turbo的数据集,并以RoBERTa的方式训练较小的模型,使得该模型在语言测...
Read More最近的一项研究介绍了'YOLOBench',这是一个针对超过550种基于YOLO(You Only Look Once,你只看一次)方法的物体检测模型的性能测评。这些模型在四个独特的数据集和硬件系统上进行了测试。YOLO是一种流行且高效的物...
Read More