漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-09-01 talkingdev

Weaviate发布8位旋转量化技术:向量搜索速度提升4倍同时优化精度

Weaviate团队最新提出的8位旋转量化技术(8-bit Rotational Quantization)突破了向量搜索领域的性能瓶颈。该技术通过创新性地采用随机旋转算法,将原始向量数据压缩至原大小的1/4,在显著减少存储空间和内存占用的...

Read More
2025-08-29 talkingdev

开源|oLLM:轻量级Python库实现消费级GPU运行100K上下文大模型

近日,GitHub上开源项目oLLM引发开发者社区广泛关注。该项目是一个专为大上下文语言模型推理设计的轻量级Python库,其核心突破在于仅需8GB显存的消费级GPU即可运行Llama-3.1-8B-Instruct等模型处理长达10万token的上...

Read More
2025-07-11 talkingdev

Cactus:支持手机部署LLM/VLM/TTS跨平台框架

开发者Henry和Roman近日推出开源项目Cactus,这是一个专为智能手机设计的跨平台框架,支持本地部署大型语言模型(LLM)、视觉语言模型(VLM)和文本转语音(TTS)模型。与Ollama专注于笔记本和边缘服务器不同,Cactu...

Read More
2025-06-30 talkingdev

PyTorch与vLLM深化集成,提升大语言模型推理效率

PyTorch与vLLM近日宣布深化技术整合,新增支持量化、注意力机制定制及异构硬件加速等关键功能。这一合作标志着两大开源框架在优化大语言模型(LLM)推理性能方面取得重要突破:量化技术可降低模型计算资源消耗达4-8...

Read More
2025-06-16 talkingdev

ParetoQ算法突破低比特量化技术瓶颈,统一二元、三元及2至4位量化方案

PyTorch官方博客最新发布的ParetoQ训练算法在低比特量化领域取得重大突破。该技术首次实现了二元(1-bit)、三元(1.58-bit)和2至4位量化的统一框架,并在所有量化级别上均达到当前最优性能。这一突破性进展尤其适...

Read More
2025-05-17 talkingdev

KVSplit开源-苹果上运行更长上下文的LLM,内存减少59%

近日,开发者dipampaul17在GitHub上发布了KVSplit项目,该项目通过差异化精度的KV缓存量化技术,在苹果芯片(M1/M2/M3/M4)上实现了更长上下文的LLM推理。研究发现,LLM推理中的KV缓存中,键(Keys)和值(Values)...

Read More
2025-05-07 talkingdev

AutoRound:突破性后训练量化技术显著提升低比特模型精度

近期,Hugging Face发布了一项名为AutoRound的后训练量化技术,该技术能够在保持模型性能和效率的同时,显著提升低比特量化模型的精度。这一突破性进展为边缘计算和移动端设备部署轻量级AI模型提供了新的可能性,解...

Read More
2025-04-16 talkingdev

[开源]Auto Deploy (GitHub Repo):NVIDIA推出PyTorch和Hugging Face模型高效部署新方案

NVIDIA在GitHub开源项目TensorRT-LLM中发布了名为Auto Deploy的创新工具,该技术实现了将PyTorch和Hugging Face模型转化为高效可部署格式的重大突破。通过TensorRT-LLM的优化编译器,模型推理速度可提升数倍,特别适...

Read More
  1. 1
  2. 2
  3. 3
  4. Next Page