漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2023-10-27 talkingdev

论文:LLM模型中的4位量化技术

本研究介绍了LLM-FP4,这是一种新的方法,通过在训练后将大型语言模型的权重和操作转换为4位浮点值来压缩它们。近年来,由于NLP任务的快速发展,语言模型的大小和计算需求不断增加,这给模型的部署和使用带来了很多...

Read More
2023-10-26 talkingdev

RLMRec-将LLMs应用于推荐系统可提升推荐质量

该项目介绍了RLMRec,一个将LLMs与推荐系统相结合的框架,捕捉用户行为和偏好的更深层含义,提高推荐的质量。

Read More
2023-10-26 talkingdev

SpellTest:基于Github的AI-to-AI测试

SpellTest是基于Github的一个新项目,旨在为基于LLM的应用提供AI-to-AI测试。LLM是一种基于语言模型的学习方法,常用于在自然语言处理和计算机视觉等领域。SpellTest可以帮助开发者在应用程序中减少拼写错误,并自动...

Read More
2023-10-25 talkingdev

AgentTuning:通过多个智能体任务中的交互轨迹来调整LLMs

近日,研究人员开源了名为AgentTuning的GitHub仓库。该仓库提供了一种新的方法来调整语言模型。这种方法通过多个智能体任务中的交互轨迹来训练和调整语言模型,从而更好地适应不同的任务和场景。这种方法可以提高语...

Read More
2023-10-24 talkingdev

评估LLMs在多轮对话中的聊天能力

本研究评估了大型语言模型(LLMs)在进行类似于人类的多轮对话时的能力。研究人员使用了一种名为Persona-Chat的数据集,该数据集包含有关对话参与者偏好和兴趣的信息。研究结果表明,LLMs在某些方面表现出了与人类类...

Read More
2023-10-23 talkingdev

深度探讨:构建基于LLM的Web应用程序

大多数组织机构没有资源在GPU上运行大型模型,但是有一个强大的开源推动力量在本地运行这些模型。本文探讨了这种推动力量以及LangChain + Ollama集成。 LLN(Local Low Rank Normalization)是一种用于处理基于卷积...

Read More
2023-10-20 talkingdev

论点:小型LLMs的优势

小型LLMs可能会超越大型LLMs,因为它们具有更快的训练速度、能够在没有专门硬件的情况下本地运行、具有经济性、延迟较低、部署容易、可能具有更好的可解释性和可重现性等优势。

Read More
2023-10-20 talkingdev

探究LLMs如何表达真相

近年来,大型语言模型(LLMs)在自然语言处理领域引起了广泛关注,但它们如何表达真相仍然是一个有待研究的问题。为了解决这个问题,研究人员开发了一些交互式图表,可以帮助用户更好地理解LLMs如何表示真相。这些图表...

Read More
  1. Prev Page
  2. 71
  3. 72
  4. 73
  5. Next Page