漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2026-04-14 talkingdev

论文推荐|DeepMind提出弹性循环Transformer:参数锐减4倍,视觉生成质量依然顶尖

DeepMind的研究团队近日在arXiv上发布了一项名为“弹性循环Transformer”的创新工作,为视觉生成模型领域带来了显著的效率突破。传统视觉生成模型通常依赖堆叠大量独立的Transformer层,导致参数量庞大。ELT的核心创新...

Read More
2026-03-26 talkingdev

前沿AI模型研发成本揭秘:最终训练仅占研发计算开销的少数

根据最新研究分析,AI前沿模型的最终训练运行只是漫长且昂贵研发过程中的最后一步。在最终训练之前,企业需投入大量计算资源进行多尺度实验、生成合成数据、测试新想法以及训练未发布的中间模型。因此,开发一个模型...

Read More
2026-02-25 talkingdev

Claude Opus 4.6实现“智能产出比”突破,以更少算力解决更复杂任务

近日,一篇关于AI模型“智能产出比”的分析引发行业关注。该分析指出,评估AI模型性能不应仅关注其最终能解决多难的任务,更应关注模型为达到该性能水平所需的计算资源,即“智能产出比”。文章重点介绍了Anthropic公司...

Read More
2026-02-16 talkingdev

逆向工程GPT-5分词器:20万Token揭示AEO/GEO策略与性能影响

在GPT-5.x等大型语言模型处理文本之前,所有输入都必须经过一个关键的前置组件——分词器。分词器本质上是一个压缩层,负责将原始文本转换为一系列整数ID序列。近日,一篇深度技术分析文章通过逆向工程OpenAI开源的分...

Read More
2026-01-30 talkingdev

深度剖析:OpenAI的GPT-5经济账本,盈利之路道阻且长

根据Exponential View与Epoch AI的联合分析,OpenAI旗下GPT-5等模型的经济状况比其首席执行官Sam Altman和Anthropic联合创始人Dario Amodei所暗示的更为严峻。报告指出,运行和开发此类前沿大语言模型的单位经济效益...

Read More
2026-01-28 talkingdev

AI2发布开源编程智能体SERA:低成本实现顶级性能,适配私有代码库

艾伦人工智能研究所(AI2)近日正式发布了其开源编程智能体系列的首个成员——SERA,并公开了完整的训练方案。这一突破性进展标志着构建适用于私有或内部代码库的编程智能体变得既经济又实用。SERA的核心价值在于,它...

Read More
2026-01-27 talkingdev

开源|SWE-Pruner:代码智能体上下文剪枝框架,令牌消耗锐减超50%

近日,GitHub开源项目SWE-Pruner提出了一种名为‘任务感知上下文剪枝’的创新框架,旨在显著优化代码智能体(Coding Agents)在处理复杂软件工程任务时的效率与成本。该框架的核心在于,通过一个轻量级模型动态分析与...

Read More
2026-01-23 talkingdev

小模型大作为:谷歌提出分解法,实现更优意图理解,兼顾效率与隐私

谷歌研究团队近日发布了一项关于提升智能体意图理解能力的技术成果。核心观点指出,要让AI智能体真正发挥作用,其底层模型必须精准理解用户交互时的真实意图。当前,大型多模态大语言模型虽已在此任务上表现不俗,但...

Read More
  1. 1
  2. 2
  3. 3
  4. Next Page