漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2023-11-03 talkingdev

亚马逊推出RoPE微调Mistral 7B模型,支持长文本上下文

亚马逊开始进入开源LLM领域,推出RoPE微调Mistral 7B模型,支持长文本上下文。该模型可在上下文中扩展至32k个令牌,可用于各种自然语言处理任务,例如问答和文本生成。RoPE是亚马逊开发的一种新的训练技术,可提高大...

Read More
2023-11-02 talkingdev

开源的LangChain模板仓库

这些模板是一组参考架构,适用于各种流行的LLM用例,是构建生产就绪的LLM应用程序最简单和最快速的方法。

Read More
2023-11-01 talkingdev

COMM开源,改进多模态LLMs性能

近期,研究人员深入探究了多模态大型语言模型(MLLMs)中使用的视觉编码器,并发现CLIP和DINO模型中的某些特征特别适合于详细的视觉任务。他们随后引入了COMM,一种结合了两种模型优点的策略。COMM能够显著提高LLMs...

Read More
2023-10-31 talkingdev

Magnetic:轻松将LLM集成到您的Python中

Magnetic是一个用于轻松集成大型语言模型到Python代码的库。 这个名为Magnetic的库是由NLP引擎提供商Hugging Face发布的。基于Transformers,Magnetic允许您轻松地将大型语言模型集成到您的Python代码中,以进行各种...

Read More
2023-10-31 talkingdev

探索现代LLM应用程序架构

本篇博客旨在为读者提供构建第一个LLM应用程序所需的一切知识。它还介绍了一些读者今天可以开始探索的问题空间。本博客涵盖了LLM应用程序的新兴架构以及LLM的现实影响。提供了进一步阅读的资源。

Read More
2023-10-30 talkingdev

论文:LLM-FP4,一种新型的LLM压缩方法

在最新的研究中,科学家们介绍了一种名为LLM-FP4的新型方法,该方法能够通过在训练后将大型语言模型的权重和活动转换为4位浮点值,实现对其进行压缩。这种技术的创新之处在于,它不仅能够显著减少模型的存储需求,还...

Read More
2023-10-27 talkingdev

论文:LLM模型中的4位量化技术

本研究介绍了LLM-FP4,这是一种新的方法,通过在训练后将大型语言模型的权重和操作转换为4位浮点值来压缩它们。近年来,由于NLP任务的快速发展,语言模型的大小和计算需求不断增加,这给模型的部署和使用带来了很多...

Read More
2023-10-26 talkingdev

RLMRec-将LLMs应用于推荐系统可提升推荐质量

该项目介绍了RLMRec,一个将LLMs与推荐系统相结合的框架,捕捉用户行为和偏好的更深层含义,提高推荐的质量。

Read More
  1. Prev Page
  2. 95
  3. 96
  4. 97
  5. Next Page