漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2023-08-25 talkingdev

人类反馈改善语言模型:DPO在Llama 2的应用

人类反馈在改善语言模型对齐和整体性能方面扮演着关键角色。然而,使用近端策略优化进行训练的过程中存在一些挑战。最近的研究表明,可以直接针对人类偏好进行优化,从而绕过奖励模型。借助基于文本的强化学习,你可...

Read More
2023-08-23 talkingdev

DeepMind发布新工具SynJax:用于处理结构概率分布

DeepMind最近推出了一款名为SynJax的新工具,该工具被设计为处理结构概率分布,如树、序列、分割、对齐等对象上的概率。SynJax的出现,无疑为我们在处理这类问题上提供了更多的便利。该工具不仅包含了许多实用的工具...

Read More
2023-08-22 talkingdev

恋物研究能为我们解读AI的哪些秘密?

人类恋物行为的形成与AI对齐问题之间存在一定的平行性,这暗示了理解进化线索的误解如何导致恋物行为可能会对AI的泛化问题提供深入的见解。本文探讨了这种类比在AI训练和可解释性方面的可能性,同时也承认生物进化和...

Read More
2023-08-17 talkingdev

强化学习:微型故事模型的对齐工具

强化学习可能是当前对齐大型语言模型(甚至视觉模型)最好的工具。然而,当你需要大量的人类数据来训练一个奖励模型时,这就成为了一项挑战。如果你可以只使用“提示”呢?这是RLCF(强化学习计算框架)趋势的又一绝佳...

Read More
2023-08-11 talkingdev

论文:通过在上下文中学习提升Llama-2模型的性能

在一篇新的研究报告中,研究人员在聊天式提示中通过检索9个演示示例,使用预训练的Llama-2语言模型进行了在上下文中的学习。这种方法并没有改变模型的权重,但它使得与文本达芬奇-003模型相比,赢率增加了7倍,使其...

Read More
2023-08-08 talkingdev

AI与人类视觉对齐数据集——AI是否能像人类一样“看”图像?

本研究引入了一种数据集,用于探究AI是否能像人类一样“看”图像。该数据集主要分为三个组别——Must-Act、Must-Abstain和Uncertain——设计用于测试AI在清晰、不清晰或模糊图像上的决策能力。Must-Act组中的图像是明确的...

Read More
2023-08-03 talkingdev

Agent化的语言模型将改变AI对齐领域

如Auto-GPT和Baby AGI等代理化语言模型的发展,可能会快速推动人工智能的发展。这些模拟人类认知功能的语言模型,为对齐和可解释性提出了新的挑战,但由于它们以英语处理信息,所以提供了独特的可解释性。

Read More
2023-07-11 talkingdev

从基本原理看AGI:OpenAI致力于“超级对齐”,人工智能对齐的必要性及风险

最近,OpenAI宣布将把大部分资源用于“超级对齐”,这使我们有必要重新审视人工智能对齐社区的一个重要观点——对齐的必要性以及人工智能(AGI)可能带来的真正风险。OpenAI是一个致力于人工智能技术的研发机构,他们的...

Read More
  1. Prev Page
  2. 9
  3. 10
  4. 11
  5. Next Page