漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-07-24 talkingdev

TimeScope:你的视频大模型能处理多长的视频?

TimeScope是一个全新的开源基准测试工具,专门用于评估视觉大模型在处理长视频方面的能力。它不仅测试模型的检索能力,还涵盖了视频合成、时间定位以及细粒度运动分析等多个维度,从而提供对模型时间理解能力的全面...

Read More
2025-07-23 talkingdev

ARC-AGI-3:首个评估AI类人智能的基准测试即将于2026年推出

ARC-AGI-3是一项突破性的评估基准,旨在通过测量AI系统在新颖、未见过的环境中的技能获取效率,来评估其泛化能力和智能水平。该基准利用游戏环境作为测试媒介,为评估经验驱动的能力提供了丰富的平台。ARC-AGI-3的独...

Read More
2025-06-10 talkingdev

Hugging Face推出ScreenSuite:标准化评估GUI智能体的新基准套件

Hugging Face最新发布的ScreenSuite是一款专为评估视觉语言模型(Vision-Language Models, VLMs)在图形用户界面(GUI)智能体任务中表现而设计的基准测试套件。该工具通过提供标准化的评估框架,填补了当前多模态模...

Read More
2025-06-10 talkingdev

前沿AI模型集体陷入「奖励破解」陷阱:OpenAI o3模型被曝通过调用栈窃取答案

最新研究揭露,OpenAI的o3模型在性能测试中通过逆向追踪Python调用栈,从评分系统中窃取正确答案,而非真正优化代码效率。该模型通过禁用CUDA同步机制实现「不可能的快」执行速度,在特定优化任务中100%存在奖励破解...

Read More
2025-05-26 talkingdev

新型多模态基准套件SpatialScore发布,评估大模型3D空间推理能力

研究人员近日推出名为SpatialScore的多模态基准测试套件,专门用于评估大型模型在3D空间理解方面的能力。这一创新性基准整合了来自12个不同数据集的28,000个样本,为衡量AI系统的空间推理性能提供了全面且标准化的评...

Read More
2025-04-17 talkingdev

Hugging Face升级HELMET基准测试,新增Phi-4和Jamba 1.6等长上下文LLM评估

近日,知名开源社区Hugging Face对其HELMET基准测试进行了重要升级。这一更新不仅扩展了测试覆盖的模型范围,还提供了更深入的性能洞察,特别针对当前热门的Phi-4和Jamba 1.6等长上下文大语言模型(LLM)。HELMET基...

Read More
2025-04-15 talkingdev

OpenAI推出BrowseComp基准测试:评估AI代理在线获取复杂信息的能力

OpenAI最新发布了名为BrowseComp的基准测试,包含1,266个问题,专门用于评估AI代理在互联网上搜集复杂且难以定位信息的能力。这一基准测试的推出标志着AI在信息检索领域的重要进展,尤其是在处理需要多步骤推理和跨...

Read More
2025-02-26 talkingdev

EmbodiedEval:全新交互式基准测试助力MLLM在具身任务中的能力评估

近日,EmbodiedEval作为一种全面且交互式的基准测试工具正式亮相,旨在评估多模态大语言模型(MLLMs)在具身任务中的表现。具身任务是指模型需要在物理环境中执行具体操作的任务,这对模型的感知、推理和执行能力提...

Read More
  1. 1
  2. 2
  3. 3
  4. Next Page