漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2023-11-16 talkingdev

LLM Decontaminaor:新型模型欺骗性能的方法

当新的模型拥有惊人的性能时,人们往往会质疑它们是否真的是在验证数据或基准测试上得到了训练。去污是从输入中删除此类测试数据的过程。LMSYS团队发现,如果你重新表述测试数据,使其通过去污,但仍包含关于基准测...

Read More
2023-11-16 talkingdev

You.com推出新API,为LLMs连接互联网提供支持

You.com已经推出了一系列API,价格从每月100美元起,使得像Meta的Llama 2这样的大型语言模型可以访问最新的互联网数据,并通过网络搜索和新闻功能提供增强的答案准确性。这些API有助于LLMs从更广泛的数据来源中汲取...

Read More
2023-11-14 talkingdev

构建和使用基于LLM的应用程序的我的思维模型

本文介绍了LLM的思维模型以及如何克服它们的局限性。了解LLM的思维模型是为了知道它们的适用范围,以及如何更好地使用它们。大多数人已经对谷歌有了类似的模型,但他们并没有意识到这一点——人们默认每个人都知道如何...

Read More
2023-11-14 talkingdev

开源GPTs:GitHub仓库OpenGPTs发布

OpenGPTs是一项旨在创建类似于OpenAI's GPTs的技术的仓库。它允许开发人员配置超过60个LLMs,提示,超过100个工具,向量数据库,检索算法和聊天历史数据库。该项目使用LangChain,LangServe和LangSmith。OpenGPTs的...

Read More
2023-11-13 talkingdev

LongQLoRA:提升LLMs上下文理解能力

GitHub上有一个新的工具——LongQLoRA,它可以让LLMs(语言模型)理解更长的序列。LLMs已经在自然语言处理方面取得了很大的成功,但它们的上下文理解能力有限。长序列的理解也是LLMs的一个挑战。LongQLoRA通过对序列切...

Read More
2023-11-13 talkingdev

谷歌完成5万多芯片的最大分布式LLM训练任务

谷歌利用MaxText和Jax训练技术,同时在超过5万个芯片上进行了LLM(语言模型)训练任务,保持了66%以上的利用率,成为了最佳MFU的强有力竞争者。该项目主要基于专有技术,但其中展示了一些有趣的细节,对于其他大规模...

Read More
2023-11-13 talkingdev

论文:优化数据清洗方案,提高LLMs的训练效果

近日,一项研究提出了一种更好的数据清洗方法,以确保LLMs的公正测试,并提高它们的可靠性。传统的数据清洗方法可能会导致LLMs训练不公平,因为某些数据可能会被错误地标记或过滤掉。这项研究提出的解决方案可以更好...

Read More
2023-11-09 talkingdev

Langroid多智能体Agent编程框架开源

受 Actor 框架的启发,这个轻量级的 Python 库使得创建基于 LLM 动力的代理变得非常容易。Langroid 多智能体编程框架(Langroid multi-agent programming framework)最近发布了他们的 GitHub Repo,使得该项目的开...

Read More
  1. Prev Page
  2. 75
  3. 76
  4. 77
  5. Next Page