漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-10-13 talkingdev

论文推荐|ReasoningBank:基于推理记忆实现智能体自我进化的突破性框架

清华大学与斯坦福大学联合研究团队近日发布突破性研究成果ReasoningBank,该框架通过构建推理记忆系统解决长期困扰大语言模型智能体的历史经验复用难题。传统智能体在持续执行现实任务时,往往将每次交互视为独立事...

Read More
2025-10-10 talkingdev

论文推荐|BlockRank:生成式模型实现可扩展上下文排序,效率提升4.7倍

近日,信息检索领域迎来突破性进展——基于生成式模型的上下文排序(ICR)技术实现规模化应用。传统ICR方法通过将任务描述、候选文档和查询直接输入大语言模型(LLM)来识别相关文档,虽效果显著但存在计算效率瓶颈:...

Read More
2025-09-30 talkingdev

Anthropic发布Claude Sonnet 4.5:刷新代码生成与智能体开发新标杆

人工智能公司Anthropic正式推出Claude Sonnet 4.5模型,该模型在SWE-bench Verified基准测试中以77.2%的得分刷新世界纪录,成为当前全球最卓越的代码生成模型。此次升级在计算机操作、复杂推理和数学计算三大核心领...

Read More
2025-09-26 talkingdev

AI编程基准测试真相:流行评测到底在衡量什么?

最新技术分析揭示,当前流行的AI编程基准测试(如SWE-bench)实际测量范围远窄于其名称所暗示的能力。研究表明,Claude在SWE-bench获得80%评分并不等同于能一次性解决80%的实际编程任务。本文深度剖析SWE-bench Veri...

Read More
2025-09-18 talkingdev

Tau²基准测试揭秘:简单提示词改写竟让GPT-5-mini性能飙升22%

Quesma实验室最新发布的Tau²基准测试研究表明,通过精细化提示词工程可显著提升轻量级AI模型在工具调用场景中的表现。该团队针对GPT-5-mini模型进行提示词重构后,在模拟真实工具使用场景的基准测试中成功率提升超20...

Read More
2025-09-12 talkingdev

开源|云端LLM训练网络与存储基准测试揭示6-7倍性能差异

最新技术基准测试表明,云端分布式训练中基础设施配置对大型语言模型(LLM)训练效率具有决定性影响。专业分析显示,网络架构与存储方案的差异可能导致训练性能出现高达6-7倍的波动,直接关联数百万美元的计算成本。...

Read More
2025-09-11 talkingdev

字节跳动发布AI图像模型Seedream 4.0,正面对决谷歌DeepMind「Nano Banana」

字节跳动最新推出的AI图像生成模型Seedream 4.0引发行业关注。该公司宣称,在内部评测基准MagicBench中,该模型在提示词遵循度、图像对齐能力和美学质量三个核心维度上超越了谷歌DeepMind的Gemini 2.5 Flash Image模...

Read More
2025-09-08 talkingdev

游戏画面模糊技术解析:从基础Box Blur到高效Dual Kawase算法

实时图形处理领域迎来重要技术突破,最新发布的技术分析文章深度剖析了游戏画面模糊效果的实现原理与性能优化方案。文章系统比较了从传统Box Blur到现代Dual Kawase Blur等多种模糊算法的数学原理与渲染效能,通过GP...

Read More
  1. Prev Page
  2. 5
  3. 6
  4. 7
  5. Next Page