漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-06-06 talkingdev

Mistral推出模型定制API

Mistral近日宣布,通过其平台和API推出模型定制功能。这一新功能允许开发者根据具体需求对Mistral的模型进行微调,从而提高模型在特定应用场景下的性能。Mistral表示,此次推出的定制化服务将为企业和开发者提供更大...

Read More
2024-06-04 talkingdev

LLMs在医疗领域的新突破

InvariantSelectPR是一种旨在提高大型多模态模型(LMMs)在特定领域如医疗保健中的适应性的方法。这种方法通过优化模型的选择和调整,使其能够更好地处理不同领域的数据,提高预测的准确性和可靠性。在医疗领域,数...

Read More
2024-06-04 talkingdev

TrainAllInfAttn方法提升大语言模型在数据稀缺领域的表现

TrainAllInfAttn是一种能够在数据稀缺的专业领域提升大语言模型表现的方法。随着人工智能技术的不断发展,如何在数据有限的情况下仍能保持模型的高效性和准确性成为了一个重要的研究方向。TrainAllInfAttn通过优化模...

Read More
2024-05-31 talkingdev

论文:Yuan 2.0-M32,具备注意力路由的MOE专家混合模型

Yuan 2.0-M32是一款具备40亿参数的专家混合模型,其中任意时刻仅有3.7亿参数处于激活状态。尽管其计算需求仅为Llama 3 70B的1/19,但其性能却接近后者。该模型在2万亿个token上进行了训练,展现出了令人惊讶的强大性...

Read More
2024-05-20 talkingdev

让LoRA学习更少遗忘更少,优化模型微调调优的新方法

LoRA(Learning of Rate Adjustor)是一种被广泛应用于模型微调的方法,用于注入风格或知识。近期的一篇研究论文深入探讨了在使用LoRA时,学习能力和遗忘之间的权衡关系。研究发现,LoRA相比于全面微调,虽然学习的...

Read More
2024-05-15 talkingdev

Google发布PaliGemma优化模型

Google在今天的发布中公布并展示了一些开源模型。其中一个已经发布的模型是基于SigLIP的视觉语言模型。这个模型非常容易调整和扩展到多种任务。这个Colab笔记本展示了如何用简洁、易读的代码来实现这一点。SigLIP是...

Read More
2024-04-10 talkingdev

论文:OA-DG方法助力单域目标检测性能提升

在目标检测领域,单域泛化(S-DG)一直是一个挑战。为了解决这一问题,最新的OA-DG方法应运而生。该方法采用了OA-Mix数据增强技术以及OA-Loss训练策略,旨在提高模型在单域环境下的泛化能力。OA-Mix通过混合不同类别...

Read More
2024-04-04 talkingdev

论文:新型DiJiang技术助力Transformer模型高效瘦身

科研团队近期推出了一项名为DiJiang的创新技术,旨在将现有的Transformer模型转化为更精简、更快速的版本,同时避免了重新训练模型所需的巨大成本。DiJiang技术通过优化模型结构,大幅减少了计算资源的消耗,使得Tra...

Read More
  1. Prev Page
  2. 5
  3. 6
  4. 7
  5. Next Page