人工智能领域迎来重大技术突破,开源项目ParScale通过创新性地在大型语言模型(LLM)的训练和推理阶段同时应用并行计算技术,成功建立了第三种LLM扩展范式。这一技术突破解决了传统序列计算模式在超大规模模型应用中...
Read More近日,开发者dipampaul17在GitHub上发布了KVSplit项目,该项目通过差异化精度的KV缓存量化技术,在苹果芯片(M1/M2/M3/M4)上实现了更长上下文的LLM推理。研究发现,LLM推理中的KV缓存中,键(Keys)和值(Values)...
Read More最新理论框架将人工智能划分为三个核心认知维度:工具、代理和模拟器。作为工具时,AI严格遵循人类指令延伸能力边界;代理形态下则具备自主目标追求能力;而模拟器模式专精于无特定目标的流程仿真。研究表明,大型语...
Read MoreGitHub用户marv1nnnnn近日发布了一个名为llm-min.txt的开源项目,该项目采用Min.js风格的压缩技术,专门针对技术文档进行优化,以适应大型语言模型(LLM)的上下文处理需求。这一创新方法不仅显著减少了文档的体积,...
Read More近日,一篇关于大型语言模型(LLM)智能体循环结合工具使用的文章引发了广泛讨论。该文章探讨了LLM智能体在循环过程中如何有效利用外部工具,从而显著提升其性能和实用性。这一技术突破不仅展示了LLM在实际应用中的...
Read MorePig.dev团队近日开源了Muscle-Mem项目,这是一个专为AI智能体设计的行为缓存SDK。该技术能够记录智能体在解决任务时的工具调用模式,并在再次遇到相同任务时确定性地重放这些学习到的行为轨迹。如果检测到边缘情况,...
Read More最新研究发现,大语言模型(LLMs)虽然在单轮对话中表现优异,但在多轮对话场景下性能显著下降。这项发表在arXiv上的研究通过大规模模拟实验揭示了这一现象:在六项生成任务中,LLMs的多轮对话表现平均下降39%。研究...
Read MoreMiyagi Labs(YC W25)近日推出了一款AI驱动的教育平台,能够将YouTube上的教育视频转化为互动式在线课程。该平台利用大型语言模型(LLM)自动生成测验、练习题和实时反馈,从而将被动观看视频转变为主动学习。创始...
Read More