漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-01-29 talkingdev

AgentBoard提升模型评估能力,多轮LLM评估升级

近日,研发团队宣布推出了AgentBoard,一款专为多轮LLM代理设计的基准测试工具。AgentBoard不仅可以评估LLM代理的最终成功率,还提供了分析评估板以进行更详细的模型评估。这款工具可以更全面地评估LLM代理,为LLM代...

Read More
2023-08-28 talkingdev

论文:研究者开发出更好的工具检测AI语言模型的偏见

科研人员已经开发出一种名为CALM的新测试,用来检查AI语言工具是否存在偏见。他们从不同的来源收集了大量的数据,并测试了各种AI模型,结果发现一些大型AI模型的偏见可能比较小的模型更严重。这一发现对于AI领域的研...

Read More
2023-08-25 talkingdev

论文:谷歌新推视频生成基准测试工具,助力自动视频生成领域研究

自动视频生成作为一个新兴的研究领域,已经引起了广泛的关注。其中,故事延续、故事混搭等任务的衡量标准十分复杂。谷歌最新推出的视频生成基准测试工具,希望能帮助这一领域取得进一步的进展。通过这个基准测试,研...

Read More
2023-08-09 talkingdev

评估大型语言模型作为代理的能力:AgentBench工具

该项目引入了AgentBench,一个用于测试大型语言模型(LLMs)在各种交互环境中的基准工具。在对25个LLMs进行的初步测试中,结果显示商业模型的表现超过了开源模型。这项研究为我们理解和评估大型语言模型的交互性能提供...

Read More
2023-08-08 talkingdev

MM-Vet:多模态LLMs测试工具

MM-Vet是一种新的工具,用于测试大型语言模型(LLMs)处理涉及图像和文字的任务的能力,例如从照片中解决数学问题或解释图片中的笑话。这种工具的出现,为我们提供了一个全新的角度去评估和理解LLMs在图像和文字处理方...

Read More
2023-05-23 talkingdev

GitHub发布Next.js企业级样板文件

该仓库包含一个企业级的Next.js样板文件,用于构建高性能、易于维护的应用程序。它支持Tailwind CSS、TypeScript、ESLint、Prettier、测试工具等。该样板文件与ChatGPT集成,可以进行AI驱动的自动化代码审查。 ##...

Read More
  1. Prev Page
  2. 2
  3. 3
  4. 4