最新研究发现,当前广泛应用的CLIP(Contrastive Language-Image Pretraining)多模态模型存在严重的安全隐患。根据arXiv最新论文披露,攻击者通过数据投毒(poisoning)方式植入后门,仅需污染0.5%的训练数据即可实...
Read More近日,BadSeek项目揭示了如何在大型语言模型(LLM)中植入后门的技术细节。该项目通过深入研究LLM的embedding机制,展示了如何在不影响模型整体性能的情况下,植入特定的触发机制,从而在特定条件下激活后门功能。这...
Read More近日,研究人员发现了一种针对视觉变换器(Vision Transformers)的新型安全威胁。这种被命名为“SWARM”的攻击手法,利用一个“切换令牌”秘密激活模型中的后门行为,使其对用户具有高度的隐蔽性和危险性。视觉变换器是...
Read More