漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2026-01-05 talkingdev

开源|HGMem:超图工作记忆框架提升LLM复杂关系推理能力

近日,一个名为HGMem的开源项目在GitHub上发布,该项目实现了一篇题为《Improving Multi-step RAG with Hypergraph-based Memory for Long-context Complex Relational Modeling》的论文。HGMem是一个基于超图的工作...

Read More
2025-12-09 talkingdev

论文推荐|无需人工标注!新型自训练框架让视觉语言模型学会自我评判

一项突破性的研究提出了一种无需任何人工偏好标注即可训练视觉语言模型评判者的全新框架。该框架的核心在于通过自我合成数据实现迭代式自训练,从而摆脱了对昂贵且易过时的人工标注的依赖。其工作流程分为三个阶段:...

Read More
2025-12-05 talkingdev

谷歌发布开源多智能体框架,破解AI智能体上下文工程瓶颈

人工智能智能体(AI Agent)的开发格局正在快速演变。当前,越来越多的组织正致力于部署复杂、自主的智能体来处理需要长期规划和多步骤执行的“长视野任务”。然而,这一雄心正面临一个关键瓶颈:上下文(Context)的...

Read More
2025-11-13 talkingdev

百度开源多模态AI模型ERNIE-4.5:28B参数动态激活3B,宣称超越GPT-5与Gemini

百度最新发布的开源多模态人工智能模型ERNIE-4.5-VL-28B-A3B-Thinking在技术架构上实现重大突破。该模型采用280亿参数规模,但通过创新的动态路由架构,在推理时仅激活30亿参数,即可在多项任务性能上媲美甚至超越规...

Read More
2025-10-30 talkingdev

Cursor 2.0发布:革命性Composer编程模型与多智能体并行开发套件

Cursor 2.0的推出标志着AI编程助手进入全新阶段,其核心突破体现在两大技术革新:首先,全新研发的Composer成为Cursor首个专用编程模型,能够在30秒内完成绝大多数编码任务。该模型通过深度训练具备对大型复杂代码库...

Read More
2025-10-02 talkingdev

多智能体系统为何需要内存工程?共享记忆基础设施成AI协作关键

当前多智能体AI系统面临的核心瓶颈在于缺乏有效的共享记忆基础设施。尽管上下文工程通过‘在正确时间提供正确信息’提升了单智能体性能,但当多个智能体需要协同工作时,这种架构就会失效。最新研究提出‘内存工程’解决...

Read More
2025-09-20 talkingdev

Linux内核新突破:引入多内核架构支持,提升系统性能与可扩展性

Linux内核社区近日迎来一项重大技术进展,开发者提交了名为“多内核架构支持(Multikernel Architecture Support)”的补丁集。该提案旨在通过多内核设计解决传统单内核架构在众核处理器时代面临的可扩展性瓶颈问题。...

Read More
2025-09-18 talkingdev

Anthropic构建多智能体研究系统,效率提升超90%

人工智能研究公司Anthropic近日披露了其创新的多智能体研究系统架构。该系统采用编排器-工作者模式,通过一个主导研究智能体协调多个并行工作的专业化子智能体,并配备专门的引证验证智能体进行来源核查。该设计通过...

Read More
  1. 1
  2. 2
  3. 3
  4. Next Page