据最新报道,Meta已秘密招募OpenAI前强化学习专家Trapit Bansal加入其新成立的AI超级智能部门。这一动作虽未获官方确认,但业内人士分析指出,Bansal的加盟将显著提升Meta在前沿推理模型领域的研发能力。作为深度强...
Read More近日,一篇题为《AGI is Mathematically Impossible 2: When Entropy Returns》的学术文章在哲学档案库(philarchive.org)发布,引发技术社区广泛讨论。该论文从数学角度论证通用人工智能(AGI)的理论局限性,核心...
Read More强化学习预训练(Reinforcement Pre-Training, RPT)作为大语言模型(LLM)与强化学习(RL)协同进化的前沿技术,提出了一种革命性的规模化训练范式。该技术通过创新性地利用海量文本数据进行通用强化学习预训练,在...
Read More由François Chollet和ARC Prize团队推出的ARC-AGI-2基准测试,作为抽象推理领域的新一代评估标准,其难度较前代显著提升。初步测试结果显示,即便是最先进的AI系统也表现不佳,其中o3模型仅获得3%的准确率,远低于原...
Read MoreFacebook研究团队近日在GitHub开源了MILS项目代码,其核心突破在于证明大型语言模型(LLMs)无需额外训练即可具备跨模态感知能力。该项目论文《LLMs can see and hear without any training》提出创新方法,通过重构...
Read More历经38年研发的知识表示系统Cyc项目近日正式终止,标志着人工智能发展史上一个重要篇章的完结。由Douglas Lenat于1984年创立的Cyc项目,旨在通过人工编码的常识知识库实现机器推理能力,其知识库最终包含超过2500万...
Read More强化学习(RL)领域长期存在一个关键问题:是否需要一个足够强大的基础模型来支持涌现式推理能力的形成?最新研究Open-Reasoner-Zero通过系统性实验验证了基础模型对RL推理的重要作用。该研究在多种规模化的RL训练场...
Read More近日,一项名为ARC-AGI的技术引起了广泛关注,其最大的亮点在于无需进行传统的预训练过程。传统的AGI(通用人工智能)系统通常需要大量的数据和计算资源进行预训练,而ARC-AGI通过创新的架构设计,成功绕过了这一步...
Read More