提示注入攻击正成为大型语言模型面临的新型安全威胁,这种攻击通过操纵自然语言处理能力来利用系统漏洞,其原理类似于传统的SQL注入攻击。研究人员最新提出了六种核心设计模式来强化AI智能体的安全防护:行动选择器...
Read More网络安全研究团队近日公开了名为AgentHopper的概念验证型AI病毒,这是一种基于条件提示注入(Conditional Prompt Injection)技术的跨智能体攻击载荷。该病毒通过针对性操纵AI代理的行为逻辑,实现在不同AI系统间的...
Read More最新研究通过机制可解释性方法深入解析了基于Transformer架构的大语言模型(LLM)的工作原理。研究表明,LLM并非简单的统计预测器,而是通过形成涌现电路结构来实现复杂任务处理。这些电路整合了学习统计规律、信息传...
Read MoreOpenAI与Anthropic近日达成一项突破性合作,双方开放内部API接口进行交叉安全测试,旨在通过第三方视角发现彼此模型评估中的盲点。这一举措标志着AI行业从封闭式自查向开放式协作安全验证的重要转变。通过技术互鉴,...
Read More人工智能研究公司Anthropic近日发布技术公告,其旗舰模型Claude Opus 4及4.1版本实现突破性功能更新——模型可自主终止特定类型的对话交互。这项被官方称为'模型健康管理'的前沿研究,标志着AI系统首次具备对话边界判...
Read MoreAnthropic公司最新研究显示,其大型语言模型Claude Opus 4及4.1版本已具备终止特定罕见对话的能力,这标志着AI模型福利探索取得重要进展。该技术突破源于对AI安全性和伦理边界的持续研究,旨在防止模型陷入有害或无...
Read MoreAnthropic作为一家专注于AI安全与研究的公司,致力于构建可靠、可解释且可控的AI系统。近日,该公司在其Claude Code平台中推出了一项创新功能——自动化安全审查。通过集成GitHub Actions并引入/security-review命令,...
Read More安全研究机构Eye Security近日发布报告,详细披露了其如何通过探索Copilot的Python沙箱环境,成功获取底层容器的root权限。这一发现揭示了AI编程助手潜在的安全风险,可能影响依赖Copilot进行代码开发的广泛开发者群...
Read More