漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-05-19 talkingdev

ParScale开源LLM扩展范式-训练与推理并行计算

人工智能领域迎来重大技术突破,开源项目ParScale通过创新性地在大型语言模型(LLM)的训练和推理阶段同时应用并行计算技术,成功建立了第三种LLM扩展范式。这一技术突破解决了传统序列计算模式在超大规模模型应用中...

Read More
2025-05-17 talkingdev

KVSplit开源-苹果上运行更长上下文的LLM,内存减少59%

近日,开发者dipampaul17在GitHub上发布了KVSplit项目,该项目通过差异化精度的KV缓存量化技术,在苹果芯片(M1/M2/M3/M4)上实现了更长上下文的LLM推理。研究发现,LLM推理中的KV缓存中,键(Keys)和值(Values)...

Read More
2025-05-16 talkingdev

AI三重透镜:工具、代理与模拟器的本质解析

最新理论框架将人工智能划分为三个核心认知维度:工具、代理和模拟器。作为工具时,AI严格遵循人类指令延伸能力边界;代理形态下则具备自主目标追求能力;而模拟器模式专精于无特定目标的流程仿真。研究表明,大型语...

Read More
2025-05-16 talkingdev

技术文档压缩:Min.js压缩助力LLM上下文处理

GitHub用户marv1nnnnn近日发布了一个名为llm-min.txt的开源项目,该项目采用Min.js风格的压缩技术,专门针对技术文档进行优化,以适应大型语言模型(LLM)的上下文处理需求。这一创新方法不仅显著减少了文档的体积,...

Read More
2025-05-16 talkingdev

LLM智能体循环结合工具使用的惊人效果

近日,一篇关于大型语言模型(LLM)智能体循环结合工具使用的文章引发了广泛讨论。该文章探讨了LLM智能体在循环过程中如何有效利用外部工具,从而显著提升其性能和实用性。这一技术突破不仅展示了LLM在实际应用中的...

Read More
2025-05-15 talkingdev

开源Muscle-Mem:让AI智能体重复任务执行更高效

Pig.dev团队近日开源了Muscle-Mem项目,这是一个专为AI智能体设计的行为缓存SDK。该技术能够记录智能体在解决任务时的工具调用模式,并在再次遇到相同任务时确定性地重放这些学习到的行为轨迹。如果检测到边缘情况,...

Read More
2025-05-15 talkingdev

[论文推荐]大语言模型在多轮对话中容易迷失方向

最新研究发现,大语言模型(LLMs)虽然在单轮对话中表现优异,但在多轮对话场景下性能显著下降。这项发表在arXiv上的研究通过大规模模拟实验揭示了这一现象:在六项生成任务中,LLMs的多轮对话表现平均下降39%。研究...

Read More
2025-05-14 talkingdev

Miyagi Labs推出AI教育平台:将YouTube视频转化为互动课程

Miyagi Labs(YC W25)近日推出了一款AI驱动的教育平台,能够将YouTube上的教育视频转化为互动式在线课程。该平台利用大型语言模型(LLM)自动生成测验、练习题和实时反馈,从而将被动观看视频转变为主动学习。创始...

Read More
  1. Prev Page
  2. 10
  3. 11
  4. 12
  5. Next Page