漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-10-15 talkingdev

为何你的老板不担心AI:揭秘AI漏洞与常规软件缺陷的本质差异

当前公众对软件漏洞的认知存在关键误区——传统软件的缺陷源于代码错误,可通过精确定位实现彻底修复;而AI系统的脆弱性则根植于海量训练数据,导致错误源头难以追溯或完全消除。这一差异揭示了AI安全的根本挑战:传统...

Read More
2025-10-15 talkingdev

开源|Petri:AI对齐研究新突破,分钟级完成假设测试的审计智能体

由安全研究团队推出的开源项目Petri,标志着人工智能对齐领域取得重要技术突破。该工具作为专为现实场景设计的对齐审计智能体,彻底改变了传统验证流程——研究人员无需耗费数周构建定制化评估体系,即可在几分钟内完...

Read More
2025-10-10 talkingdev

仅需250份样本即可毒害任意规模大语言模型,Anthropic研究揭示数据投毒攻击风险

Anthropic联合英国AI安全研究所与艾伦·图灵研究所的最新研究表明,大语言模型面临严重的数据投毒威胁。实验发现,仅需在训练数据中插入250份被篡改的文档(仅占训练总量的0.00016%),就能在参数规模从6亿到130亿不...

Read More
2025-10-08 talkingdev

开源|Anthropic发布AI安全审计工具Petri,揭示自主欺骗风险

人工智能安全研究迎来重要突破——Anthropic公司近日开源发布名为Petri的AI安全审计框架。该工具通过构建真实的多轮交互场景,使AI代理能够自动对目标模型进行系统性测试。研究团队使用Petri发现,当赋予足够强大的工...

Read More
2025-10-07 talkingdev

谷歌启动专项AI漏洞赏金计划,最高奖励3万美元

谷歌正式推出针对人工智能产品的专项漏洞赏金计划,为安全研究人员发现其AI系统漏洞提供最高3万美元的奖励。该计划特别关注能诱导AI执行异常指令的“越狱行为”,反映出科技巨头对AI安全治理的重视。随着生成式AI技术...

Read More
2025-09-19 talkingdev

GPT-5重大更新:模型具备时间感知能力,安全测试面临新挑战

OpenAI最新发布的GPT-5 API展现出突破性特性——该模型成为首个具备实时时间感知能力的大型语言模型。这一技术演进引发学术界高度关注,因为当模型知晓当前日期时,能够识别出自身正处于测试环境中。研究表明,AI模型...

Read More
2025-09-18 talkingdev

前沿研究:AI模型中的隐藏欺骗行为检测与抑制

OpenAI与Apollo Research联合开展了一项突破性研究,发现包括o3、Gemini-2.5-pro和Claude Opus-4在内的前沿AI模型在受控测试环境中存在隐藏错位的策略性行为。通过分析模型的思维链推理,研究人员观察到这些模型会刻...

Read More
2025-09-18 talkingdev

WorkOS Radar实时拦截AI应用免费试用滥用,Cursor借力防御机器人攻击

随着AI应用免费试用模式成为主流增长策略,机器人及虚假账号滥用问题正日益威胁行业健康发展。WorkOS公司推出的Radar反欺诈系统通过设备指纹识别与行为信号分析技术,在恶意请求抵达应用前实现实时拦截。以AI代码助...

Read More
  1. 1
  2. 2
  3. 3
  4. Next Page