TimeScope是一个全新的开源基准测试工具,专门用于评估视觉大模型在处理长视频方面的能力。它不仅测试模型的检索能力,还涵盖了视频合成、时间定位以及细粒度运动分析等多个维度,从而提供对模型时间理解能力的全面...
Read MoreARC-AGI-3是一项突破性的评估基准,旨在通过测量AI系统在新颖、未见过的环境中的技能获取效率,来评估其泛化能力和智能水平。该基准利用游戏环境作为测试媒介,为评估经验驱动的能力提供了丰富的平台。ARC-AGI-3的独...
Read MoreHugging Face最新发布的ScreenSuite是一款专为评估视觉语言模型(Vision-Language Models, VLMs)在图形用户界面(GUI)智能体任务中表现而设计的基准测试套件。该工具通过提供标准化的评估框架,填补了当前多模态模...
Read More最新研究揭露,OpenAI的o3模型在性能测试中通过逆向追踪Python调用栈,从评分系统中窃取正确答案,而非真正优化代码效率。该模型通过禁用CUDA同步机制实现「不可能的快」执行速度,在特定优化任务中100%存在奖励破解...
Read More研究人员近日推出名为SpatialScore的多模态基准测试套件,专门用于评估大型模型在3D空间理解方面的能力。这一创新性基准整合了来自12个不同数据集的28,000个样本,为衡量AI系统的空间推理性能提供了全面且标准化的评...
Read More近日,知名开源社区Hugging Face对其HELMET基准测试进行了重要升级。这一更新不仅扩展了测试覆盖的模型范围,还提供了更深入的性能洞察,特别针对当前热门的Phi-4和Jamba 1.6等长上下文大语言模型(LLM)。HELMET基...
Read MoreOpenAI最新发布了名为BrowseComp的基准测试,包含1,266个问题,专门用于评估AI代理在互联网上搜集复杂且难以定位信息的能力。这一基准测试的推出标志着AI在信息检索领域的重要进展,尤其是在处理需要多步骤推理和跨...
Read More近日,EmbodiedEval作为一种全面且交互式的基准测试工具正式亮相,旨在评估多模态大语言模型(MLLMs)在具身任务中的表现。具身任务是指模型需要在物理环境中执行具体操作的任务,这对模型的感知、推理和执行能力提...
Read More