漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-03-20 talkingdev

LlamaGym:在线强化学习优化大模型Agent

近日,GitHub上出现了一个新的项目LlamaGym,该项目专注于通过在线强化学习方法对大型语言模型(LLM)代理进行微调。大型语言模型在近年来取得了显著的进展,但如何进一步提升其性能,尤其是在特定任务上的表现,成...

Read More
2024-03-18 talkingdev

Cappy:小型评分器如何超越大型多任务语言模型

Cappy是一款小型模型,专门设计用于接收指令和候选完成,然后为完成度打分,以衡量其完成指令的程度。在这项任务上,Cappy的表现超越了许多更大的模型,这表明它可能作为训练和生成过程中的一个反馈机制。Cappy的成...

Read More
2024-03-11 talkingdev

Axolotl开源,本地GPU上训练大模型取得突破

上周,在小型GPU上训练大型模型取得了突破。这个配置展示了如何使用这些技术在消费级硬件上训练Mixtral。

Read More
2024-03-08 talkingdev

深入探讨:大规模模型训练的并行化技术

这是一篇关于大规模模型训练的并行化技术的教程。文章详细介绍了不同类型的并行化技术,以及如何在训练大模型时实现高效的并行化。本文介绍了数据并行、模型并行和混合并行等不同的技术,并详细讨论了它们的优缺点。...

Read More
2024-02-27 talkingdev

Mistral AI发布新模型,与GPT-4和自己的聊天助手竞争

Mistral AI推出了一款名为Mistral Large的新型语言大模型,以与GPT-4和Claude 2等顶级模型竞争。该公司还推出了一项名为Le Chat的新服务,以与ChatGPT竞争。通过该公司的API,访问Mistral Large的成本为每百万输入令...

Read More
2024-02-22 talkingdev

LoRA+:优化模型微调的新方案

本文介绍了LoRA+,一种优于现有Low-Rank Adaptation (LoRA)方法的微调大模型的方法。LoRA+通过为过程中的关键部分使用不同的学习速率来实现更好的性能和更快的微调,而无需增加计算需求。

Read More
2024-01-30 talkingdev

用纯 Rust 运行 Mamba大模型推理

受 Llama 模型的努力启发,这个项目使用纯 Rust 在 CPU 上运行 Mamba 推理。

Read More
2024-01-25 talkingdev

大模型LLM幻觉排行榜

最近,一份名为“Hallucination Leaderboard”的GitHub仓库开始在自然语言处理领域引起轰动。该仓库汇集了多种模型在摘要短文档时产生幻觉的性能比较数据,让人们更好地了解这些模型的优势和不足。据悉,该排行榜是由...

Read More
  1. Prev Page
  2. 23
  3. 24
  4. 25
  5. Next Page