漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-10-10 talkingdev

仅需250份样本即可毒害任意规模大语言模型,Anthropic研究揭示数据投毒攻击风险

Anthropic联合英国AI安全研究所与艾伦·图灵研究所的最新研究表明,大语言模型面临严重的数据投毒威胁。实验发现,仅需在训练数据中插入250份被篡改的文档(仅占训练总量的0.00016%),就能在参数规模从6亿到130亿不...

Read More
2025-04-04 talkingdev

[论文推荐]CLIP模型存在后门攻击漏洞:仅需少量数据即可实现近100%攻击成功率

最新研究发现,当前广泛应用的CLIP(Contrastive Language-Image Pretraining)多模态模型存在严重的安全隐患。根据arXiv最新论文披露,攻击者通过数据投毒(poisoning)方式植入后门,仅需污染0.5%的训练数据即可实...

Read More