清华大学知识工程实验室(THUDM)在GitHub开源了项目CaRR,其对应论文《Chaining the Evidence: Robust Reinforcement Learning for Deep Search Agents with Citation-Aware Rubric Rewards》提出了一种创新方法,...
Read More近日,Vercel在其技术博客中分享了一种构建AI智能体的创新架构思路,该方案摒弃了复杂的专用框架,转而采用标准的文件系统和Bash工具作为核心基础设施。文章指出,由于大型语言模型(LLM)天生具备对代码和Unix命令...
Read MoreAnthropic近日开源了名为Bloom的工具,这是一个专门用于对AI模型进行自动化行为评估的开源解决方案。该工具通过创建特定场景并量化不同模型中的行为发生率,能够系统性地评估如自我偏好偏见、蓄意破坏等具体行为模式...
Read More近日,一篇题为《Prompts for Open Problems》的文章在机器学习研究社区引发了广泛讨论。文章作者系统性地提出了四个具有高度前瞻性和可行性的研究方向,旨在推动领域突破现有范式。首先,“基于设计的机器学习”倡导...
Read MoreOpenAI的研究团队近期在模型可解释性领域取得重要进展,通过结合稀疏自编码器与创新的潜在归因方法,系统性地定位和解决大型语言模型中的行为错位问题。该研究提出的归因方法能够有效识别稀疏自编码器潜在空间中导致...
Read More备受关注的ARC Prize 2025竞赛结果正式公布,标志着人工智能推理能力评测进入新阶段。本届竞赛吸引了全球1455支顶尖团队参与,共计提交了15154份解决方案,竞争异常激烈。所有获奖方案及技术论文均已遵循开源协议发...
Read More据《麻省理工科技评论》报道,OpenAI正在测试一种新颖的方法,旨在让大语言模型(LLMs)能够主动“坦白”或“自我报告”其内部运作过程。这项研究探索如何训练模型不仅输出最终答案,还能生成“自白书”,详细描述其完成任...
Read More人工智能安全与研究公司Anthropic正式发布Claude Opus 4.5模型,标志着可信AI系统建设迈入新阶段。作为专注于构建可靠、可解释与可操控AI系统的先锋企业,Anthropic此次更新延续了其在前沿AI安全技术领域的深度布局...
Read More