漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2023-08-28 talkingdev

WizardLM团队利用新技术突破开源代码模型性能瓶颈,超越Phind模型

近日,WizardLM团队利用他们的Evol instruct技术显著提升了Llama代码的性能,甚至击败了Phind模型。此次成果尽管受到一些质疑,因为他们生成的指令直接提升了评估分数,而未使用固定的数据集,也没有把评估视为固定...

Read More
2023-07-26 talkingdev

优化物体检测算法:AlignDet引领新技术潮流(GitHub开源代码库)

最近,有一款名为AlignDet的两阶段预训练框架在GitHub上开源,旨在弥补物体检测算法中的预训练和微调程序之间的差距。AlignDet的设计目标是提高算法的性能、泛化能力以及收敛速度。通过对预训练和微调过程的深度优化...

Read More
2023-07-08 talkingdev

InternLM公开7亿参数的基础聊天模型,专为实际场景设计

近日,InternLM在GitHub上公开了一款专为实际场景设计的基础聊天模型。该模型拥有7亿的参数,可广泛应用于各种实际场景,如客户服务、在线咨询等。InternLM的这款模型采用了先进的深度学习技术,能够理解和回应用户...

Read More
2023-06-15 talkingdev

开源代码模型击败ChatGPT在编码任务中(GitHub Repo)

近日,一种开源代码模型在编码任务中表现超越ChatGPT等语言模型。封闭模型之所以强大,是因为它们实际上是伪装成语言模型的代码模型。很多开放式语言模型表现不佳,因为它们无法从大规模的代码预训练中获得推理能力...

Read More
2023-06-07 talkingdev

Aviary:让你在一个平台上与各种大型语言模型互动

近日,一款名为 Aviary 的应用在开源代码托管平台 GitHub 上正式发布。这款应用能够让用户在一个平台上与各种大型语言模型互动,具有以下特点: - 在一个平台上与多个语言模型互动,无需频繁切换; - 直接比较不...

Read More
2023-06-06 talkingdev

QLoRA: 优化量化LLMs的有效微调

本文介绍了一个名为"QLoRA"的开源代码库,旨在支持论文"QLoRA: Efficient Finetuning of Quantized LLMs",该论文旨在民主化LLM研究的资源获取。 ## 三个核心要点: - QLoRA是一个开源代码库,支持LLM研究领域的民...

Read More
2023-06-02 talkingdev

GitHub开源自动驾驶技术:多相机联合预训练

内容摘要: - 研究介绍了一种名为“Occ-BEV”的自动驾驶预训练方法,旨在充分利用多个相机视角,而不仅仅是一个,从而捕捉周围环境的更准确理解。 - 该技术使用独特的3D解码器来预测环境的三维几何形状。 - 这一技术的...

Read More
2023-05-25 talkingdev

LoopGPT:Auto-GPT的Python包的重新实现

LoopGPT是Auto-GPT项目的重新实现,作为一个合适的Python包,具有模块化和可扩展性。以下是该项目的三个核心要点: - LoopGPT是Auto-GPT项目的重构版本,它是一个Python包,可以更好地实现模块化和可扩展性。 - Loo...

Read More
  1. Prev Page
  2. 4
  3. 5
  4. 6
  5. Next Page