漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-02-26 talkingdev

Mozilla担任NeurIPS效率挑战的评估者

去年,Mozilla担任了效率挑战的可扩展评估者。它确保参赛者遵守比赛规则并评估模型性能。这篇文章是语言模型评估和竞争性训练方案的良好介绍。本次比赛对推动自然语言处理技术的发展具有重要意义。

Read More
2024-01-29 talkingdev

AgentBoard提升模型评估能力,多轮LLM评估升级

近日,研发团队宣布推出了AgentBoard,一款专为多轮LLM代理设计的基准测试工具。AgentBoard不仅可以评估LLM代理的最终成功率,还提供了分析评估板以进行更详细的模型评估。这款工具可以更全面地评估LLM代理,为LLM代...

Read More
2024-01-26 talkingdev

音乐与语言模型评估数据集发布

Song Describer数据集包含1000多个人工编写的音乐记录描述,该数据集可帮助评估音乐与语言模型,例如音乐字幕和文本转音乐生成。

Read More
2023-10-03 talkingdev

开源大模型评估套件OpenCompass:让大规模模型测试更高效

OpenCompass是一款免费的工具,旨在快速有效地测试大型模型。它的开源特性意味着任何人都可以对其进行修改和优化,以满足特定的需求。OpenCompass的核心优势在于其能够处理大规模的模型,这使得它在处理复杂的机器学...

Read More
2023-08-29 talkingdev

Meta AI发布基于虚幻引擎的超真实图形数据集

Meta AI近日公布了一系列利用虚幻引擎进行超真实图像处理的数据集。发布的数据集包括用于基础模型研究的PUG:动物,用于评估图像分类器鲁棒性的PUG:ImageNet,以及用于视觉语言模型评估的PUG:SPAR。这些数据集的发...

Read More
  1. Prev Page