漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-05-09 talkingdev

QoQ高效量化算法助力LLM推理加速

QoQ,一种新型量化算法,通过使用4位权重、8位激活和4位KV缓存,加速了大型语言模型推理。量化是一种广泛应用于深度学习中的技术,它能够减少模型的存储需求和计算复杂性。在这种情况下,QoQ算法采用了较低精度的数...

Read More
2024-05-01 talkingdev

Meta发布ExecuTorch框架,为边缘设备上的LLM提供支持

Meta发布了一款名为ExecuTorch的框架,这是一个后训练量化工具包,能够支持在各种iPhone和Galaxy设备上运行Llama模型。该框架能够在运行7B大小语言模型的手机上,每秒获取多达11个令牌。ExecuTorch框架的发布,进一...

Read More
2024-04-30 talkingdev

Mistral.rs:一款快速的LLM开源推理平台

近日,一款名为Mistral.rs的LLM推理平台在GitHub上备受关注。它可以支持多种设备上的推理,支持量化,并且具有易于使用的应用程序,带有OpenAI API兼容的HTTP服务器和Python绑定。无论是在深度学习推理、设备兼容性...

Read More
2024-04-03 talkingdev

AutoQuant 笔记本:将 HuggingFace 模型转换为五种不同的量化格式

AutoQuant 笔记本是一个新的工具,它可以将 HuggingFace 上的模型导出为五种不同的量化格式,包括 GGUF、GPTQ、EXL2、AWQ 和 HQQ。这些量化格式旨在优化模型的性能和效率,以便在不同的硬件和平台上部署。通过使用 A...

Read More
2024-04-03 talkingdev

Light Whisper:为苹果芯片打造极速Whisper语音识别实现

Lightning Whisper MLX是一款针对苹果硅芯片优化的Whisper语音识别算法的高速实现版本。它采用批量解码技术以提高吞吐量,运用蒸馏模型以加快解码速度,并引入量化模型以加速内存传输。相较于传统的Whisper CPP,Lig...

Read More
2024-04-02 talkingdev

论文:Transformer-Lite,在手机GPU上运行大型语言模型

在移动设备上运行语言模型面临着延迟、带宽和功耗等多方面的挑战。本研究通过采用量化技术、移除键值缓存以及其他优化手段,成功实现了在手机上以每秒30个令牌的速度运行强大的Gemma 2B模型。这一成果比其他框架快约...

Read More
2024-03-29 talkingdev

1比特语言模型:后训练量化技术助力在消费级GPU上运行700亿参数模型

1比特语言模型的研究为深度学习领域带来了新的突破。该技术通过在不损失性能的前提下,对语言模型中的线性层进行量化处理,实现了模型大小的大幅压缩。这一创新使得原本只能在高性能计算平台上运行的700亿参数模型,...

Read More
2024-03-04 talkingdev

关于LLM量化的全面研究

随着人工智能模型的不断发展,越来越多的研究人员开始研究如何在不影响模型准确性的前提下,提高模型的计算效率和内存利用率。LLM量化是一种后训练量化技术,可以使像OPT和LLaMA2这样的大型语言模型更具内存和计算效...

Read More
2024-02-29 talkingdev

论文:量化语言模型提高生成效率

IR-QLoRA是一种新方法,它可以提高量化大型语言模型的准确性,使它们更适合在资源有限的设备上使用。量化是一种通过降低浮点精度来减少计算资源需求的技术。虽然这种方法可以大大减少模型的计算量和存储空间,但它也...

Read More
2024-02-21 talkingdev

KV Quant - 缩放至1000万个令牌

KV缓存的量化是Transformer架构的一个技术细节,它使其在推理时使用更少的内存。量化是在最小损失质量的情况下缩小浮点精度。

Read More
  1. Prev Page
  2. 2
  3. 3
  4. 4
  5. Next Page