漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2026-04-23 talkingdev

AI推理新挑战:基准测试揭示智能体工作负载对引擎性能的深层影响

随着人工智能向智能体(Agent)方向演进,传统的大模型推理基准测试正面临根本性变革。智能体工作负载不再是简单的单轮问答,而是包含多轮交互、工具调用等复杂场景。这种变化给推理引擎带来了前所未有的压力,尤其...

Read More
2026-04-21 talkingdev

月之暗面发布Kimi K2.6系列模型,宣称多项基准超越GPT-5.4与Claude Opus

中国人工智能公司月之暗面(Moonshot AI)近日正式推出其新一代大模型系列Kimi K2.6,并已在Kimi Chat对话平台及API接口上线。该系列模型的核心突破在于强化了长上下文编程能力与智能体(Agent)执行支持,旨在为开...

Read More
2026-04-09 talkingdev

开源|Claw-Eval:首个经人类验证的LLM智能体基准测试集,覆盖139项真实任务

近日,GitHub上开源了一个名为Claw-Eval的评估框架,专门用于评估大型语言模型作为智能体的能力。该框架的核心价值在于其构建了一个全面且经过人类验证的基准测试集,涵盖了139项多样化的真实世界任务。与以往许多依...

Read More
2025-07-24 talkingdev

TimeScope:你的视频大模型能处理多长的视频?

TimeScope是一个全新的开源基准测试工具,专门用于评估视觉大模型在处理长视频方面的能力。它不仅测试模型的检索能力,还涵盖了视频合成、时间定位以及细粒度运动分析等多个维度,从而提供对模型时间理解能力的全面...

Read More
2025-04-21 talkingdev

[开源]ZeroSumEval Benchmark:多智能体对抗框架重塑大语言模型评估标准

Meta旗下Facebook Research团队推出的ZeroSumEval Benchmark在GitHub开源,这一动态评估框架通过竞争性多智能体模拟,为大语言模型(LLM)在推理、知识储备和规划任务等核心能力维度建立了全新测试范式。该框架创新...

Read More