漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-05-06 talkingdev

LRAGE-法律领域大语言模型评估框架开源

LRAGE(Legal RAG Evaluation Toolkit)是一个开源的评估框架,专门用于在法律领域的检索增强生成(RAG)任务中评估大语言模型(LLM)的性能。该工具包集成了多种数据集和评估工具,为研究人员提供了一个全面的平台...

Read More
2025-04-21 talkingdev

[开源]ZeroSumEval Benchmark:多智能体对抗框架重塑大语言模型评估标准

Meta旗下Facebook Research团队推出的ZeroSumEval Benchmark在GitHub开源,这一动态评估框架通过竞争性多智能体模拟,为大语言模型(LLM)在推理、知识储备和规划任务等核心能力维度建立了全新测试范式。该框架创新...

Read More
2025-04-17 talkingdev

Hugging Face升级HELMET基准测试,新增Phi-4和Jamba 1.6等长上下文LLM评估

近日,知名开源社区Hugging Face对其HELMET基准测试进行了重要升级。这一更新不仅扩展了测试覆盖的模型范围,还提供了更深入的性能洞察,特别针对当前热门的Phi-4和Jamba 1.6等长上下文大语言模型(LLM)。HELMET基...

Read More