漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2026-04-23 talkingdev

上下文是软件,权重是硬件:AI学习的核心差异比你想象的更重要

在大型语言模型领域,一种新的视角正在引发讨论:将上下文视为“软件”,而将权重视为“硬件”。这种比喻揭示了模型运作的本质差异。上下文(如KV缓存)动态地调节模型的激活值,为特定任务提供临时性的“编程”,从而实现...

Read More
2026-04-23 talkingdev

AI推理新挑战:基准测试揭示智能体工作负载对引擎性能的深层影响

随着人工智能向智能体(Agent)方向演进,传统的大模型推理基准测试正面临根本性变革。智能体工作负载不再是简单的单轮问答,而是包含多轮交互、工具调用等复杂场景。这种变化给推理引擎带来了前所未有的压力,尤其...

Read More
2026-04-08 talkingdev

开源|TriAttention:基于三角函数的KV缓存压缩技术,助力大模型长上下文推理在内存受限GPU上本地部署

近日,GitHub上开源了一个名为TriAttention的项目,其核心是一种创新的KV(键值)缓存压缩技术。该技术旨在解决大语言模型在处理长上下文任务时,因KV缓存占用内存巨大而难以在消费级或内存受限的GPU上高效部署的行...

Read More
2026-01-01 talkingdev

开源|LMCache:为LLM服务注入极速KV缓存层,响应速度提升3-10倍

近日,一个名为LMCache的开源项目在GitHub上发布,旨在通过创新的键值(KV)缓存加速层,显著提升大型语言模型(LLM)的服务性能。该项目专为LLM推理服务设计,其核心在于能够跨GPU、CPU、本地磁盘和Redis等多种存储...

Read More
2025-10-31 talkingdev

Kimi Linear技术报告发布:新型架构实现注意力机制效率突破

月之暗面(Moonshot AI)正式发布Kimi Linear技术报告,这项突破性架构通过创新设计实现了对传统全注意力机制的全面超越。该架构在保持同等性能水平下,将KV缓存使用量最高降低75%,在100万上下文长度场景中解码吞吐...

Read More
2025-06-18 talkingdev

解密LLM中的KV缓存机制:从原理到优化实践

KV(键值)缓存是大型语言模型(LLM)推理过程中的关键技术,通过存储注意力计算的中间结果显著提升生成效率。以逐词生成"Time flies fast"为例,传统方式需在每个步骤重复计算"Time"和"flies"的注意力权重,而采用K...

Read More
2025-05-17 talkingdev

KVSplit开源-苹果上运行更长上下文的LLM,内存减少59%

近日,开发者dipampaul17在GitHub上发布了KVSplit项目,该项目通过差异化精度的KV缓存量化技术,在苹果芯片(M1/M2/M3/M4)上实现了更长上下文的LLM推理。研究发现,LLM推理中的KV缓存中,键(Keys)和值(Values)...

Read More
2025-04-23 talkingdev

[开源] Morphik:开源多模态RAG系统,本地运行可解析PDF图像内容

开发者Adi和Arnav在尝试让大语言模型(LLM)处理研究论文和说明书中的问题时,发现现有RAG(检索增强生成)系统无法有效解析PDF中的图像和图表内容,甚至GPT-4o和O3模型也表现不佳。为此,他们开发了开源项目Morphik...

Read More
  1. Next Page