漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2026-04-12 talkingdev

我们如何打破顶级AI智能体基准测试?加州伯克利团队揭示可信基准构建之道

加州大学伯克利分校的研究团队近日发表博客文章,详细阐述了他们在构建可信赖的AI智能体基准测试方面取得的突破性进展。文章指出,当前许多流行的AI智能体基准测试存在设计缺陷,容易被特定策略“破解”或产生误导性结...

Read More
2026-04-09 talkingdev

开源|Claw-Eval:首个经人类验证的LLM智能体基准测试集,覆盖139项真实任务

近日,GitHub上开源了一个名为Claw-Eval的评估框架,专门用于评估大型语言模型作为智能体的能力。该框架的核心价值在于其构建了一个全面且经过人类验证的基准测试集,涵盖了139项多样化的真实世界任务。与以往许多依...

Read More
2026-04-06 talkingdev

论文推荐|简单自蒸馏显著提升大模型代码生成能力,无需额外验证器或强化学习

一项名为‘简单自蒸馏’(Simple Self-Distillation, SSD)的新方法为大语言模型的代码生成能力提升开辟了一条高效且成本低廉的路径。该方法的核心在于,仅利用模型自身在特定采样配置(如温度参数和截断策略)下生成...

Read More
2026-03-27 talkingdev

开源|ATLAS项目引热议:500美元GPU在编码基准测试中超越Claude Sonnet

近日,一个名为ATLAS(Adaptive Test-time Learning and Autonomous Specialization)的开源项目在开发者社区引发广泛关注。根据Hacker News上的讨论,该项目展示了一项引人瞩目的性能表现:在特定的编码基准测试中...

Read More
2026-03-25 talkingdev

性能翻倍!Ray Data LLM实现生产级大模型批量推理吞吐量超越vLLM同步引擎

随着大语言模型(LLM)应用场景的不断拓展,越来越多的现代工作负载,如大规模内容生成、数据清洗和批量分析等,其核心诉求已从追求单个请求的低延迟,转向了优先保障整体吞吐量。然而,当前许多LLM系统和部署方案仍...

Read More
2026-03-16 talkingdev

前端内存泄漏实证研究:基于500个开源仓库的静态分析与五大场景基准测试

一项针对前端开发中内存泄漏问题的系统性实证研究近日发布。该研究采用基于抽象语法树(AST)的静态分析方法,对500个公开的React、Vue和Angular仓库进行了扫描,共识别出55,864个缺失清理逻辑的代码模式。研究发现...

Read More
2026-02-25 talkingdev

Claude Opus 4.6实现“智能产出比”突破,以更少算力解决更复杂任务

近日,一篇关于AI模型“智能产出比”的分析引发行业关注。该分析指出,评估AI模型性能不应仅关注其最终能解决多难的任务,更应关注模型为达到该性能水平所需的计算资源,即“智能产出比”。文章重点介绍了Anthropic公司...

Read More
2026-02-19 talkingdev

AI安全攻防新标杆:OpenAI与Paradigm联合发布智能合约漏洞评估基准EVMbench

OpenAI与知名加密投资及研究机构Paradigm近日联合推出了名为“EVMbench”的全新基准测试。该基准旨在系统性地评估人工智能(AI)代理在检测、修补以及利用高严重性智能合约漏洞方面的综合能力。智能合约作为区块链生态...

Read More
  1. Prev Page
  2. 2
  3. 3
  4. 4
  5. Next Page