漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-06-20 talkingdev

[开源]检测大语言模型中的遗忘痕迹

最新研究发现,经过机器遗忘训练的大语言模型(LLMs)会留下可检测的行为和激活空间“指纹”。通过简单的分类器,可以以超过90%的准确率识别出这些遗忘痕迹。这一发现引发了关于隐私和版权的重大关切,尤其是在涉及敏...

Read More
2025-06-20 talkingdev

[论文推荐]提升大语言模型细粒度子词理解能力的新方法:StochasTok

最新研究表明,通过StochasTok训练方法可显著提升大语言模型对子词结构的理解能力。该创新技术采用随机分解标记的策略,在训练过程中让模型以多种拆分形式接触词汇(如将'strawberry'随机拆分为'straw|berry'、'str|...

Read More
2025-06-20 talkingdev

LLM编译技术重大突破:单核化Megakernel实现低延迟推理

传统大型语言模型(LLM)系统普遍存在硬件利用率低下的问题,主要源于GPU内核的序列化启动及跨设备通信开销。一支研究团队创新性地开发出专用编译器,可将LLM推理过程自动编译为单一megakernel(超级内核),通过三大...

Read More
2025-06-20 talkingdev

语言模型推理经济学:为何当前扩展方法遭遇瓶颈

首份关于大语言模型(LLM)服务经济学的综合模型揭示,随着AI公司竞相部署高token消耗的推理模型和智能体,当前扩展推理能力的方法比预期更快遭遇瓶颈。研究发现,网络延迟而非带宽成为主要瓶颈,阻碍了公司通过简单...

Read More
2025-06-20 talkingdev

LLM时代推荐与搜索系统的革新:语义ID与生成式检索的崛起

在大型语言模型(LLM)时代,推荐与搜索系统正经历从传统物品ID到丰富'语义ID'(Semantic IDs)的重大转型。这一变革引入了生成式检索和多模态嵌入技术,显著提升了系统处理冷启动覆盖、长尾内容发现的能力,并实现...

Read More
2025-06-20 talkingdev

将大语言模型编译为MegaKernel:低延迟推理的新路径

近日,一篇关于将大语言模型(LLMs)编译为单一MegaKernel以实现低延迟推理的技术文章引发广泛讨论。该技术通过优化编译器设计,将传统需要多个内核调用的LLM推理过程整合为高度融合的单一内核,显著减少了内核启动...

Read More
2025-06-19 talkingdev

DeepNVMe重大升级:扩展模型检查点与推理支持,引入PCIe Gen5 NVMe扩展能力

DeepNVMe最新版本实现了多项突破性升级:首先扩展了对模型检查点(checkpointing)和推理工作负载的支持,使深度学习框架能更高效地管理训练中间状态;其次新增PCIe Gen5 NVMe的扩展能力,显著提升存储带宽以应对大...

Read More
2025-06-19 talkingdev

[论文推荐]Text-to-LoRa:无需训练数据的即时Transformer定制技术

Sakana AI研究团队开发出一项突破性技术——Text-to-LoRa(T2L)系统,该系统仅需文本描述即可即时定制大型语言模型,无需传统方法所需的训练数据或耗时微调过程。该技术的核心创新在于将数百个LoRA适配器(一种高效轻...

Read More
  1. Prev Page
  2. 5
  3. 6
  4. 7
  5. Next Page