漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-05-06 talkingdev

基于Mistral的新型语言模型Prometheus评估GPT-4性能

在许多现代性能基准测试中,GPT-4被广泛用作生成质量的评判标准。现在,一种名为Prometheus的模型引起了人们的关注。这种模型是基于Mistral构建的,能够在这项任务上表现出色。Prometheus不仅在处理日常任务上有出色...

Read More
2024-05-02 talkingdev

Reka发布内部评估套件 Vibe-Eval,火速赶超顶级玩家

Reka是一家专业训练大型基础模型的公司,尽管资金规模只是顶级玩家的一小部分,但其发展速度却迅速赶超了一些业界最佳参与者。近日,Reka发布了其内部评估套件Vibe-Eval的一个子集,该套件被用于确定其模型的强度。...

Read More
2024-03-27 talkingdev

AI领域的新星:Adept如何改变游戏规则

在这篇访谈中,我们深入探讨了David Luan的职业历程,他曾是OpenAI的早期员工、Google大型语言模型项目的领导者之一,以及Google Brain的共同领导。Luan也是Adept的创始人,该公司是AI代理领域的佼佼者。他分享了在...

Read More
2024-02-23 talkingdev

斯坦福发布HELM Instruct基准测试

斯坦福大学语言建模团队发布了一项广泛使用的基准测试,名为Holistic Evaluation of Language Models (HELM)。他们还发布了一份面向指令跟随的版本,名为HELM-Instruct。该测试是多维的、开放式的和绝对的。

Read More
2023-11-23 talkingdev

Yoyozo:如何用39K制作Playdate游戏

Yoyozo是独立游戏开发者,最近他在39K的预算下制作了一款名为《小鸟寻宝》的Playdate游戏。这个游戏是用Lua语言编写的,涉及了一系列的技术挑战,包括如何在小尺寸屏幕上显示复杂的图形和动画。Yoyozo分享了他的制作...

Read More
2023-09-15 talkingdev

论文:无需训练即可对齐语言模型,效果提升至81%

对齐技术有助于使语言模型更有用且无害。虽然有时可能会损害性能,但总的来说,这是一项正面的技术。对齐是昂贵的,需要大量的对齐数据。然而,如果您允许模型在生成后评估自身的输出并进行回溯,它可以提高冻结模型...

Read More
2023-09-05 talkingdev

ragas:助力评估检索增强生成管道的框架

ragas是一个框架,它可以帮助你评估你的检索增强生成(Retrieval Augmented Generation,简称RAG)管道,这是一类使用外部数据来增强LLM(语言模型学习)上下文的应用程序。RAG管道是近年来人工智能领域的重要研究方...

Read More
2023-08-21 talkingdev

论文:高效评估文字至图像生成的新方法

目前,评价从文本生成的图像质量的方法存在一些问题,如无法真实捕获图像的美观程度或与文本的匹配程度。最新的研究论文介绍了一种新的方法,该方法可以估计生成的图像与给定文本的匹配程度,重点关注图像的最重要部...

Read More
  1. Prev Page
  2. 2
  3. 3
  4. 4
  5. Next Page