据《麻省理工科技评论》报道,OpenAI正在测试一种新颖的方法,旨在让大语言模型(LLMs)能够主动“坦白”或“自我报告”其内部运作过程。这项研究探索如何训练模型不仅输出最终答案,还能生成“自白书”,详细描述其完成任...
Read More人工智能安全与研究公司Anthropic正式发布Claude Opus 4.5模型,标志着可信AI系统建设迈入新阶段。作为专注于构建可靠、可解释与可操控AI系统的先锋企业,Anthropic此次更新延续了其在前沿AI安全技术领域的深度布局...
Read MorePipelex作为一项开源项目,推出专为AI智能体设计的领域特定语言与框架,致力于解决当前AI工作流程构建中的可重复性与复杂性挑战。该框架通过创新的‘管道’组合模式,使开发者能够将复杂的AI任务拆解为可复用、可编排...
Read MoreAnthropic最新研究通过‘概念注入’实验,首次系统验证了大语言模型的内省能力。研究显示,特别是Claude Opus 4和4.1版本模型能够检测并识别被注入的概念,并能通过参照自身‘意图’来识别意外输出。实验证明这些模型具...
Read MoreOpenAI最新推出的gpt-oss-safeguard系列模型(包含1200亿和200亿参数版本)标志着AI安全技术的重要突破。该模型创新性地允许开发者在推理阶段直接应用定制化安全策略,无需像传统方法那样依赖数千个标注样本训练分类...
Read MoreAnthropic研究团队在《Circuits Updates – October 2025》中披露了令人振奋的发现:其大型语言模型Claude的内部神经元展现出跨模态理解能力。实验表明,当模型处理文字“眼睛”时激活的特定神经元,在遇到用@符号排列...
Read More最新技术研究显示,基于推理的智能代理系统可显著提升搜索相关性达15-30%。该突破性进展源于对搜索工具设计的重新思考——开发者应构建类似grep或基础关键词搜索的简洁透明工具,而非复杂系统。研究表明,推理代理在与...
Read MoreNeurIPS 2024系统推理研讨会最新收录的研究项目ProofOfThought提出了一种突破性的神经符号编程合成方法,通过结合大型语言模型的语义理解能力与Z3定理证明器的形式化验证机制,实现了兼具鲁棒性与可解释性的自动推理...
Read More