漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-07-08 talkingdev

[开源]Helicone推出开源LLM可观测性平台:一行代码实现监控、评估与实验

开源项目Helicone近日发布了一款专为大型语言模型(LLM)设计的可观测性平台,该平台仅需一行代码即可实现对LLM的监控、评估和实验功能。作为Y Combinator W23批次的入选项目,Helicone致力于为开发者和企业提供高效...

Read More
2025-04-16 talkingdev

AllenAI发布数据筛选工具Data Decide,助力预训练数据选择

AllenAI最新推出的Data Decide工具为预训练过程中的数据筛选提供了创新解决方案。这一框架能够帮助研究人员和开发者更科学地评估和选择预训练数据,显著提升模型训练效率和质量。该工具通过系统化的评估指标,量化不...

Read More
2024-10-26 talkingdev

揭示LLMs不确定性的检测方法

在人工智能领域,尤其是大型语言模型(LLMs)的应用中,理解模型的不确定性变得愈发重要。通过有效地检测LLMs在生成内容时的不确定性,开发者和研究人员可以更好地评估模型的可靠性和适用性。当前的研究表明,采用嵌...

Read More
2024-06-26 talkingdev

EvalAlign:一种文本到图像生成模型评估指标

EvalAlign是一种新型的用于改进文本到图像生成模型评估的指标。与现有的评估指标不同,EvalAlign提供了细粒度的准确性和稳定性。它主要关注图像的真实性和文本与图像的对齐性。与其他评估指标不同的是,EvalAlign不...

Read More
2024-02-26 talkingdev

基于标注数据的LLM评估指标

本文讨论依赖于真实标注数据的评估指标。它探讨了通用和RAG特定的评估指标。所有指标都带有Python实现或指向一个Hugging Face模型卡的链接。

Read More
2024-02-12 talkingdev

HF开源轻量级评估库 lighteval

HuggingFace发布了一个轻量级的评估库lighteval,用于基于HELM和Eluther AI评估工具的语言模型训练。该评估库专注于提供高效易用的评估方法和指标,帮助用户快速准确地评估模型性能。同时,lighteval还提供了丰富的...

Read More
2024-01-29 talkingdev

AgentBoard提升模型评估能力,多轮LLM评估升级

近日,研发团队宣布推出了AgentBoard,一款专为多轮LLM代理设计的基准测试工具。AgentBoard不仅可以评估LLM代理的最终成功率,还提供了分析评估板以进行更详细的模型评估。这款工具可以更全面地评估LLM代理,为LLM代...

Read More
2024-01-26 talkingdev

生产环境中的LLM应用评估指标

本文讨论不依赖于基准数据的评估指标。文章探讨了通用的以及特定于RAG、聊天机器人和摘要的评估方法。所有指标都附带Python实现。

Read More
  1. Next Page