英伟达创始人兼CEO黄仁勋近日宣布,其下一代AI芯片平台Vera Rubin已进入“全面生产”阶段。根据英伟达官方披露的技术信息,Vera Rubin平台在训练特定大型语言模型时,所需芯片数量可大幅减少至当前旗舰Blackwell架构平...
Read More近日,一个名为HGMem的开源项目在GitHub上发布,该项目实现了一篇题为《Improving Multi-step RAG with Hypergraph-based Memory for Long-context Complex Relational Modeling》的论文。HGMem是一个基于超图的工作...
Read More近日,GitHub上开源了一个名为‘Agentic Coding Flywheel Setup’(ACFS)的系统工具,旨在为希望获得智能体工程能力的初学者和团队提供一站式解决方案。该工具的核心价值在于,能够在大约30分钟内,将一个全新的Ubunt...
Read More根据年度回顾分析,2025年是大语言模型(LLM)发展史上具有里程碑意义的一年。核心技术突破体现在模型获得了真正的“推理”能力,使其能够处理复杂的多步骤任务,这直接推动了高性能AI智能体的广泛应用。其中,“编码智...
Read More近日,GitHub上开源项目Ensue Memory Network引发人工智能领域开发者关注。该项目旨在为大型语言模型(LLM)提供一个持久化且可不断生长的“知识树”系统,从根本上解决当前LLM在每次新对话中“重置”上下文、无法积累长...
Read More近日,GitHub上开源了一个名为E2E的JAX官方实现项目,它提出了一种创新的长上下文语言建模方法。该方法的核心在于将传统的语言建模任务重新定义为持续学习问题。E2E模型采用标准的Transformer架构,并配合滑动窗口注...
Read More近日,一个名为LMCache的开源项目在GitHub上发布,旨在通过创新的键值(KV)缓存加速层,显著提升大型语言模型(LLM)的服务性能。该项目专为LLM推理服务设计,其核心在于能够跨GPU、CPU、本地磁盘和Redis等多种存储...
Read More据《南华早报》记者Wency Chen援引知情人士消息,中国科技巨头字节跳动计划在2026年投入约140亿美元用于采购英伟达的人工智能芯片,这一预算较2025年预计支出增长约18%,折合人民币约1000亿元。这一巨额投资计划直接...
Read More