漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-06-11 talkingdev

[论文推荐]强化学习预训练(RPT):大语言模型与强化学习融合的新范式

强化学习预训练(Reinforcement Pre-Training, RPT)作为大语言模型(LLM)与强化学习(RL)协同进化的前沿技术,提出了一种革命性的规模化训练范式。该技术通过创新性地利用海量文本数据进行通用强化学习预训练,在...

Read More
2025-05-21 talkingdev

[论文推荐]ARC-AGI-2发布:下一代AI推理基准测试,顶尖模型仅得3%

由François Chollet和ARC Prize团队推出的ARC-AGI-2基准测试,作为抽象推理领域的新一代评估标准,其难度较前代显著提升。初步测试结果显示,即便是最先进的AI系统也表现不佳,其中o3模型仅获得3%的准确率,远低于原...

Read More
2025-04-27 talkingdev

MILS开源-无需训练即可实现视觉与听觉感知

Facebook研究团队近日在GitHub开源了MILS项目代码,其核心突破在于证明大型语言模型(LLMs)无需额外训练即可具备跨模态感知能力。该项目论文《LLMs can see and hear without any training》提出创新方法,通过重构...

Read More
2025-04-09 talkingdev

AI先驱Cyc项目落幕:知识表示时代的终结与反思

历经38年研发的知识表示系统Cyc项目近日正式终止,标志着人工智能发展史上一个重要篇章的完结。由Douglas Lenat于1984年创立的Cyc项目,旨在通过人工编码的常识知识库实现机器推理能力,其知识库最终包含超过2500万...

Read More
2025-04-02 talkingdev

[论文推荐]Open-Reasoner-Zero:探索基础模型在强化学习推理中的规模化应用

强化学习(RL)领域长期存在一个关键问题:是否需要一个足够强大的基础模型来支持涌现式推理能力的形成?最新研究Open-Reasoner-Zero通过系统性实验验证了基础模型对RL推理的重要作用。该研究在多种规模化的RL训练场...

Read More
2025-03-05 talkingdev

无需预训练的ARC-AGI技术突破

近日,一项名为ARC-AGI的技术引起了广泛关注,其最大的亮点在于无需进行传统的预训练过程。传统的AGI(通用人工智能)系统通常需要大量的数据和计算资源进行预训练,而ARC-AGI通过创新的架构设计,成功绕过了这一步...

Read More
2025-01-01 talkingdev

2024年关于LLMs的三大发现

2024年对于LLM(大型语言模型)而言是充满突破的一年。在这一年中,我们学到了关于LLMs的许多新知识,这不仅推动了人工智能的发展,也为未来的技术应用奠定了基础。首先,我们发现LLMs的参数规模和训练数据量显著增...

Read More
2024-05-28 talkingdev

如何看待通用人工智能(AGI)

尽管一些专家认为通用人工智能(AGI)可能在不久的将来实现,但由于缺乏对一般智能的连贯理论模型以及对大型语言模型(LLM)为何或如何如此高效的理解,整体共识仍然不确定。讨论强调了围绕AGI的巨大未知数,类似于...

Read More
  1. Prev Page
  2. 2
  3. 3
  4. 4
  5. Next Page