当AI智能体协助用户处理横跨数百条消息的复杂任务时,一旦其上下文窗口耗尽,是能够继续高效工作,还是被迫从头开始?这直接决定了智能体的实用性与可靠性。Factory.ai的最新研究深入探讨了这一问题,并提出了一套评...
Read More人工智能模型评估机构METR发布的最新数据显示,Anthropic公司推出的Claude Opus 4.5大型语言模型在任务处理时效性上取得了显著突破。根据METR的评估框架,Claude Opus 4.5的“50%任务完成时间视界”约为4小时49分钟,...
Read More业界瞩目的开源AI推理基准测试工具InferenceMAX正式亮相,该工具通过夜间自动化测试对Llama 70B、DeepSeek R1等主流大模型进行持续性能评估。其核心价值在于量化AI推理中的关键权衡:吞吐量(每GPU每秒处理令牌数)...
Read More最新研究针对大型语言模型的表格理解能力展开系统性评测,通过向GPT-4.1-nano模型输入包含1000条员工记录的11种不同格式数据,评估其回答问题的准确率。研究结果显示,Markdown键值对格式(Markdown-KV)以最高准确...
Read More清华大学团队开源AgentScope框架,为大型语言模型应用开发提供全新范式。该框架采用智能体导向编程(Agent-Oriented Programming)设计理念,显著提升LLM应用的透明度和实时可控性。其核心特性包括工具管理、长时记...
Read MoreAnthropic公司推出的模型上下文协议(Model Context Protocol,MCP)旨在标准化大型语言模型(LLM)对外部工具的使用方式,正迅速成为工具集成的行业规范。该开源框架通过结构化接口,使AI代理能够更高效地调用外部A...
Read More开源项目Helicone近日发布了一款专为大型语言模型(LLM)设计的可观测性平台,该平台仅需一行代码即可实现对LLM的监控、评估和实验功能。作为Y Combinator W23批次的入选项目,Helicone致力于为开发者和企业提供高效...
Read More近日,英伟达的GPU在MLPerf推理测试中取得了优异的成绩,尤其是H200型号。MLPerf推理测试是业界公认的深度学习性能评估基准,对AI系统的推理能力进行全方位评测。在此次测试中,英伟达的GPU展现了其在处理复杂机器学...
Read More