漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-02-01 talkingdev

谎言、诅咒和基准测试

基准测试是非常有用的工具,但由于其狭窄的范围、过度拟合、污染、可重复性问题和缺乏范围,它们并不是真实世界实用性的最佳指标。

Read More
2024-01-30 talkingdev

RAG:探索ColBERT和RAGatouille

ColBERT是一个出色的模型,用于为RAG应用嵌入查询和索引数据。本文探讨了该方法背后的直觉,并进行了一些基准测试。ColBERT的特点在于,它将查询和文档嵌入到一个共享空间中,从而可以直接在该空间中进行相似性匹配...

Read More
2024-01-29 talkingdev

AgentBoard提升模型评估能力,多轮LLM评估升级

近日,研发团队宣布推出了AgentBoard,一款专为多轮LLM代理设计的基准测试工具。AgentBoard不仅可以评估LLM代理的最终成功率,还提供了分析评估板以进行更详细的模型评估。这款工具可以更全面地评估LLM代理,为LLM代...

Read More
2024-01-26 talkingdev

Fuyu-Heavy多模型表现超越Gemini Pro

Adept公司扩大了其Fuyu架构并训练了一个更大的版本,目前是MMMU上排名第三的最佳模型之一。该模型在其他任务中也表现良好(例如,在HumanEval编码基准测试中达到40+)。与其他替代方案相比,扩展此架构的挑战较少,...

Read More
2024-01-25 talkingdev

论文:MMCbench新基准测试大型多模型

这篇技术报告介绍了MMCBench,这是一个新的基准测试,旨在测试各种任务如文本到图像和语音到文本等情况下大型多模型(LMMs)的一致性和可靠性。该测试涵盖了超过100个流行模型,旨在提高读者对这些AI系统在现实世界...

Read More
2024-01-20 talkingdev

TACO:代码生成新基准开源

TACO是一个新的基准,用于评估系统生成代码的能力。它比现有数据集大得多,包含更具挑战性的问题。在简单的问题上,GPT-4的正确率达到30%,而在最难的问题子集上,它仅能达到2%。

Read More
2024-01-12 talkingdev

GPT-4 Turbo的基准测试结果

最近的基准测试显示,GPT-4成功完成了70%的编程任务,而GPT-4 Turbo略微落后,仅达到了68.8%。有趣的是,GPT-4 Turbo需要更多的第二次尝试,这表明它可能缺乏GPT-4的记忆能力。随后的测试证实了这一点。

Read More
2024-01-10 talkingdev

DeepSeek LLM技术报告发布:接近GPT-3.5水平

去年最好的编码模型之一是DeepSeek LLM。它在许多基准测试中接近GPT-3.5(即使它可能是3倍大小)。有关模型训练,令牌计数,模型架构等的信息已在技术报告中发布。DeepSeek LLM是一种基于语言模型的编码器,它使用自...

Read More
  1. Prev Page
  2. 26
  3. 27
  4. 28
  5. Next Page