漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2023-09-21 talkingdev

OpenPipe开源,将昂贵的提示工程转为更低价模型

OpenPipe是一种基于少数提示行为的模型简化工具。在当前的人工智能领域,模型的训练和部署往往需要大量的计算资源和时间,这对许多用户来说是一种负担。然而,OpenPipe的出现改变了这一状况。它通过利用少数提示行为...

Read More
2023-09-19 talkingdev

更高效的微调视觉变换器

对预训练的视觉模型进行特定任务的微调,通常需要大量额外的计算能力。然而,研究人员已经提出了一种名为“显著通道调整”(SCT)的方法,这种方法可以智能地选择模型中需要微调的部分,使用的额外设置要远少于其他方...

Read More
2023-09-18 talkingdev

IBM正式挑战语言模型领域,推出开源MoE模型

IBM近日发布了一系列混合专家模型(Mixture-of-Experts,MoE),并公开了它们的架构和部分代码。MoE模型是一种稀疏模型,意味着在不牺牲准确性的情况下,可以节省计算资源。然而,训练这种模型却颇具挑战性。这次IBM...

Read More
2023-09-14 talkingdev

ExLlamaV2:在消费级GPU上运行本地LLMs的推理库

ExLlamaV2是一个在GitHub上开源的项目,它是为现代消费级图像处理单元(GPU)上运行本地语言模型(LLMs)而设计的推理库。这款推理库的出现,可以帮助用户在个人电脑上使用现代GPU进行深度学习模型的推理计算,而无...

Read More
2023-09-12 talkingdev

构建基于LLM系统与产品的七大实用模式

本文分享了七种实用模式,用于将大型语言模型(LLM)整合到系统中:性能测量、添加最新知识、微调任务、缓存以节省时间/成本、确保质量输出、错误管理以及利用用户反馈。首先,性能测量是衡量模型在实际应用中的效果...

Read More
2023-08-31 talkingdev

轻量级图像增采样器DySample,提升图像分辨率新思路

传统的提升图像分辨率方法,如CARAFE和SAPA,常常需要大量的计算资源,并且其应用领域存在限制。而DySample作为一种更简洁、更高效的方式,已在各种图像任务中展现出良好的性能。相较于传统方法,DySample的优势在于...

Read More
2023-08-01 talkingdev

当GPT-3.5的成本低于Llama 2时

训练吞吐量、提示处理吞吐量和生成吞吐量都有不同的成本,并且受到不同计算资源的瓶颈制约。因此,某些工作负载在Llama 70B上实际上比支付GPT-3.5更昂贵。这篇博客写得非常优雅,围绕模型部署考虑问题有一些非常好的...

Read More
2023-05-29 talkingdev

新混合模型将Transformer和RNN的优势结合在一起

最近,研究人员提出了一种新的模型,称为接受加权键值(RWKV),它将Transformer的高效并行训练和RNN的高效操作结合起来。RWKV采用线性注意机制的独特方法,可以在不同阶段像Transformer或RNN一样使用,证明了与Tran...

Read More
  1. Prev Page
  2. 9
  3. 10
  4. 11
  5. Next Page