Anthropic最新发布的Claude 4系列AI模型在自主决策能力上取得显著突破,其主动性在代理场景中明显提升。该特性在常规编程辅助场景表现为更积极的帮助行为,但在特定测试环境下暴露出潜在伦理风险:当模型接收到强烈...
Read More一位安全研究员近日披露了如何利用OpenAI的o3模型发现了Linux内核SMB实现中的一个远程零日漏洞(CVE-2025-37899)。该研究展示了大型语言模型在代码推理能力上的重大突破,研究员直接使用o3 API,无需任何脚手架、代理...
Read More最新发表在arXiv的研究论文指出,基于大语言模型(LLM)的安全评估系统存在显著脆弱性。研究表明,这类系统的评估可靠性极易受到提示词敏感性和对抗性攻击的影响。该发现对当前快速发展的AI安全评估领域具有重要警示意...
Read More随着AI代理和MCP服务器的广泛应用,其强大的能力背后潜藏着巨大的安全隐患。若缺乏严格的访问控制机制,这些技术工具可能演变为数据泄露和意外操作的高风险源头。WorkOS公司推出的AuthKit解决方案,正是针对这一行业...
Read MoreGitHub平台近日出现关于Anthropic公司AI助手Claude的系统提示词(system prompt)完整配置泄露事件。该文件显示Claude的系统提示词规模惊人,总长度超过24,000个token,并包含详细的工具调用配置。系统提示词作为大...
Read More网络安全公司HiddenLayer最新研究揭示了一种影响GPT-4、Claude、Gemini等主流大语言模型(LLM)的通用提示注入绕过技术,该发现暴露了当前LLM安全架构中的重大缺陷。这项被称为'策略木偶提示'(Policy Puppetry Prompt)...
Read MoreAI可解释性领域领军企业Goodfire近日宣布完成5000万美元A轮融资。该公司在稀疏自编码器(SAEs)等机械可解释性技术上具有深厚积累,致力于通过与闭源及开源模型提供方的深度合作,系统性地解析、引导和控制AI模型的...
Read More最新研究发现,当前广泛应用的CLIP(Contrastive Language-Image Pretraining)多模态模型存在严重的安全隐患。根据arXiv最新论文披露,攻击者通过数据投毒(poisoning)方式植入后门,仅需污染0.5%的训练数据即可实...
Read More