Anthropic联合英国AI安全研究所与艾伦·图灵研究所的最新研究表明,大语言模型面临严重的数据投毒威胁。实验发现,仅需在训练数据中插入250份被篡改的文档(仅占训练总量的0.00016%),就能在参数规模从6亿到130亿不...
Read More人工智能安全研究迎来重要突破——Anthropic公司近日开源发布名为Petri的AI安全审计框架。该工具通过构建真实的多轮交互场景,使AI代理能够自动对目标模型进行系统性测试。研究团队使用Petri发现,当赋予足够强大的工...
Read MoreOpenAI最新发布的GPT-5 API展现出突破性特性——该模型成为首个具备实时时间感知能力的大型语言模型。这一技术演进引发学术界高度关注,因为当模型知晓当前日期时,能够识别出自身正处于测试环境中。研究表明,AI模型...
Read More根据彭博社最新报道,当前全球人工智能安全研究领域近全部资金均来自急于开发AI技术的硅谷科技公司。随着AI技术快速迭代和产品商业化压力加剧,针对超智能系统的安全研究严重滞后于技术发展步伐。这一趋势导致原本警...
Read MoreOpenAI与Anthropic近日达成一项突破性合作,双方开放内部API接口进行交叉安全测试,旨在通过第三方视角发现彼此模型评估中的盲点。这一举措标志着AI行业从封闭式自查向开放式协作安全验证的重要转变。通过技术互鉴,...
Read More近日,一位研究人员通过OpenAI的o3模型成功发现了Linux内核SMB实现中的一个远程零日漏洞(CVE-2025-37899)。该漏洞的发现过程仅使用了o3 API,展示了AI在网络安全领域的强大潜力。SMB(Server Message Block)协议...
Read More一位安全研究员近日披露了如何利用OpenAI的o3模型发现了Linux内核SMB实现中的一个远程零日漏洞(CVE-2025-37899)。该研究展示了大型语言模型在代码推理能力上的重大突破,研究员直接使用o3 API,无需任何脚手架、代理...
Read More最新研究揭示了现有防御有害微调攻击(Harmful Fine-Tuning Attacks)方法的脆弱性,并提出了一种名为Panacea的创新解决方案。该方案采用自适应扰动技术,在保持模型微调性能的同时有效维护模型安全性。这一突破性进...
Read More