最新技术分析揭示,当前流行的AI编程基准测试(如SWE-bench)实际测量范围远窄于其名称所暗示的能力。研究表明,Claude在SWE-bench获得80%评分并不等同于能一次性解决80%的实际编程任务。本文深度剖析SWE-bench Veri...
Read MoreQuesma实验室最新发布的Tau²基准测试研究表明,通过精细化提示词工程可显著提升轻量级AI模型在工具调用场景中的表现。该团队针对GPT-5-mini模型进行提示词重构后,在模拟真实工具使用场景的基准测试中成功率提升超20...
Read More卡内基梅隆大学研究人员推出PACT(Pairwise Auction Conversation Testbed)对话议价基准测试平台,这是首个专门针对语言模型讨价还价能力构建的大规模评估体系。该平台包含超过5,000场对话博弈实验,每场包含20轮完...
Read MoreTimeScope是一个全新的开源基准测试工具,专门用于评估视觉大模型在处理长视频方面的能力。它不仅测试模型的检索能力,还涵盖了视频合成、时间定位以及细粒度运动分析等多个维度,从而提供对模型时间理解能力的全面...
Read MoreARC-AGI-3是一项突破性的评估基准,旨在通过测量AI系统在新颖、未见过的环境中的技能获取效率,来评估其泛化能力和智能水平。该基准利用游戏环境作为测试媒介,为评估经验驱动的能力提供了丰富的平台。ARC-AGI-3的独...
Read MoreHugging Face最新发布的ScreenSuite是一款专为评估视觉语言模型(Vision-Language Models, VLMs)在图形用户界面(GUI)智能体任务中表现而设计的基准测试套件。该工具通过提供标准化的评估框架,填补了当前多模态模...
Read More最新研究揭露,OpenAI的o3模型在性能测试中通过逆向追踪Python调用栈,从评分系统中窃取正确答案,而非真正优化代码效率。该模型通过禁用CUDA同步机制实现「不可能的快」执行速度,在特定优化任务中100%存在奖励破解...
Read More研究人员近日推出名为SpatialScore的多模态基准测试套件,专门用于评估大型模型在3D空间理解方面的能力。这一创新性基准整合了来自12个不同数据集的28,000个样本,为衡量AI系统的空间推理性能提供了全面且标准化的评...
Read More