漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-02-29 talkingdev

论文:量化语言模型提高生成效率

IR-QLoRA是一种新方法,它可以提高量化大型语言模型的准确性,使它们更适合在资源有限的设备上使用。量化是一种通过降低浮点精度来减少计算资源需求的技术。虽然这种方法可以大大减少模型的计算量和存储空间,但它也...

Read More
2024-02-21 talkingdev

KV Quant - 缩放至1000万个令牌

KV缓存的量化是Transformer架构的一个技术细节,它使其在推理时使用更少的内存。量化是在最小损失质量的情况下缩小浮点精度。

Read More
2024-02-20 talkingdev

阿里Qwen发布1.8B和72B LLMs

Qwen团队发布了两个新的语言模型,分别是1.8B和72B的LLMs,与Llama 2相似,这些模型训练了3T个标记,并且在许多任务上表现出色。除了发布聊天版本和量化版本外,这些模型还在推理、数学和代码方面表现出色。

Read More
2024-02-01 talkingdev

Pytorch实验性浮点8训练

使用较低精度的模型训练速度更快、更便宜,但不稳定。最近有很多关于量化训练的研究。这个代码库建立在这些基础上,提供易于阅读和可修改的代码,实现浮点8训练。

Read More
2024-02-01 talkingdev

Mistral CEO确认新的开源AI模型泄露,接近GPT-4的性能

本周,Mistral公司的CEO确认了Mistral的一个量化版本文件在HuggingFace上泄露,该技术使得在较弱的电脑和芯片上运行某些AI模型成为可能。据报道,该模型在EQ-Bench上超过了全球所有其他LLM模型,仅次于GPT-4。Mistra...

Read More
2024-01-31 talkingdev

SliceGPT:新一代模型压缩工具问世

近日,一款名为SliceGPT的新一代模型压缩工具问世。据悉,该工具可以适用于从Phi-2等小型模型到大型模型的多种规模,并可对模型的权重矩阵进行剪枝处理,最大程度保持模型质量的同时,实现模型参数的大幅度减少,以...

Read More
2024-01-12 talkingdev

Unsloth轻量化库加速TRL上的模型

Unsloth是一个轻量化库,可加速语言模型的微调。它现在可以轻松地与TRL在常见的模型架构上配合使用。Unsloth库通过一个简单的API使得模型训练和微调更快速。它可以帮助从训练数据中自动学习、优化和微调模型,使得模...

Read More
2023-12-22 talkingdev

工程师水平的薪资排名

Jane Street公司是最高薪资的公司,其L1总薪资为350,000美元,是刚入行工程师的首选公司。Jane Street是一家专注于算法交易和量化分析的公司,经常吸引来自哈佛大学、麻省理工学院等世界顶尖学府的优秀毕业生。该公...

Read More
2023-10-27 talkingdev

论文:LLM模型中的4位量化技术

本研究介绍了LLM-FP4,这是一种新的方法,通过在训练后将大型语言模型的权重和操作转换为4位浮点值来压缩它们。近年来,由于NLP任务的快速发展,语言模型的大小和计算需求不断增加,这给模型的部署和使用带来了很多...

Read More
2023-09-29 talkingdev

论文:VQ-VAE的简化,新方案提出简易量化计划

向量量化变分自编码器(VectorQuantized-VAEs)通常被视为在学习特定离散表示(例如,令牌或代码)时的最新技术。然而,它们通常复杂且脆弱。一篇新的论文提出了一种简单的量化方案,消除了代码本崩溃和复杂的设备,...

Read More
  1. Prev Page
  2. 2
  3. 3
  4. 4
  5. Next Page