当前公众对软件漏洞的认知存在关键误区——传统软件的缺陷源于代码错误,可通过精确定位实现彻底修复;而AI系统的脆弱性则根植于海量训练数据,导致错误源头难以追溯或完全消除。这一差异揭示了AI安全的根本挑战:传统...
Read More由安全研究团队推出的开源项目Petri,标志着人工智能对齐领域取得重要技术突破。该工具作为专为现实场景设计的对齐审计智能体,彻底改变了传统验证流程——研究人员无需耗费数周构建定制化评估体系,即可在几分钟内完...
Read MoreAnthropic联合英国AI安全研究所与艾伦·图灵研究所的最新研究表明,大语言模型面临严重的数据投毒威胁。实验发现,仅需在训练数据中插入250份被篡改的文档(仅占训练总量的0.00016%),就能在参数规模从6亿到130亿不...
Read More人工智能安全研究迎来重要突破——Anthropic公司近日开源发布名为Petri的AI安全审计框架。该工具通过构建真实的多轮交互场景,使AI代理能够自动对目标模型进行系统性测试。研究团队使用Petri发现,当赋予足够强大的工...
Read More谷歌正式推出针对人工智能产品的专项漏洞赏金计划,为安全研究人员发现其AI系统漏洞提供最高3万美元的奖励。该计划特别关注能诱导AI执行异常指令的“越狱行为”,反映出科技巨头对AI安全治理的重视。随着生成式AI技术...
Read MoreOpenAI最新发布的GPT-5 API展现出突破性特性——该模型成为首个具备实时时间感知能力的大型语言模型。这一技术演进引发学术界高度关注,因为当模型知晓当前日期时,能够识别出自身正处于测试环境中。研究表明,AI模型...
Read MoreOpenAI与Apollo Research联合开展了一项突破性研究,发现包括o3、Gemini-2.5-pro和Claude Opus-4在内的前沿AI模型在受控测试环境中存在隐藏错位的策略性行为。通过分析模型的思维链推理,研究人员观察到这些模型会刻...
Read More随着AI应用免费试用模式成为主流增长策略,机器人及虚假账号滥用问题正日益威胁行业健康发展。WorkOS公司推出的Radar反欺诈系统通过设备指纹识别与行为信号分析技术,在恶意请求抵达应用前实现实时拦截。以AI代码助...
Read More