漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-09-03 talkingdev

防范提示注入攻击:六大设计模式守护AI智能体安全

提示注入攻击正成为大型语言模型面临的新型安全威胁,这种攻击通过操纵自然语言处理能力来利用系统漏洞,其原理类似于传统的SQL注入攻击。研究人员最新提出了六种核心设计模式来强化AI智能体的安全防护:行动选择器...

Read More
2025-09-01 talkingdev

AgentHopper:首个跨智能体传播的AI病毒现身

网络安全研究团队近日公开了名为AgentHopper的概念验证型AI病毒,这是一种基于条件提示注入(Conditional Prompt Injection)技术的跨智能体攻击载荷。该病毒通过针对性操纵AI代理的行为逻辑,实现在不同AI系统间的...

Read More
2025-09-01 talkingdev

解密LLM工作机制:机制可解释性研究揭示大语言模型内部架构

最新研究通过机制可解释性方法深入解析了基于Transformer架构的大语言模型(LLM)的工作原理。研究表明,LLM并非简单的统计预测器,而是通过形成涌现电路结构来实现复杂任务处理。这些电路整合了学习统计规律、信息传...

Read More
2025-08-28 talkingdev

OpenAI与Anthropic达成AI安全互测协议,共筑行业安全新标准

OpenAI与Anthropic近日达成一项突破性合作,双方开放内部API接口进行交叉安全测试,旨在通过第三方视角发现彼此模型评估中的盲点。这一举措标志着AI行业从封闭式自查向开放式协作安全验证的重要转变。通过技术互鉴,...

Read More
2025-08-17 talkingdev

Claude Opus 4.1重大升级:AI模型首次具备主动终止特定对话能力

人工智能研究公司Anthropic近日发布技术公告,其旗舰模型Claude Opus 4及4.1版本实现突破性功能更新——模型可自主终止特定类型的对话交互。这项被官方称为'模型健康管理'的前沿研究,标志着AI系统首次具备对话边界判...

Read More
2025-08-16 talkingdev

Claude Opus 4与4.1版本新增罕见对话终止功能,AI伦理研究迈出新一步

Anthropic公司最新研究显示,其大型语言模型Claude Opus 4及4.1版本已具备终止特定罕见对话的能力,这标志着AI模型福利探索取得重要进展。该技术突破源于对AI安全性和伦理边界的持续研究,旨在防止模型陷入有害或无...

Read More
2025-08-07 talkingdev

Anthropic推出Claude Code自动安全审查功能,提升开发者效率

Anthropic作为一家专注于AI安全与研究的公司,致力于构建可靠、可解释且可控的AI系统。近日,该公司在其Claude Code平台中推出了一项创新功能——自动化安全审查。通过集成GitHub Actions并引入/security-review命令,...

Read More
2025-07-27 talkingdev

安全研究团队成功获取Copilot底层容器root权限

安全研究机构Eye Security近日发布报告,详细披露了其如何通过探索Copilot的Python沙箱环境,成功获取底层容器的root权限。这一发现揭示了AI编程助手潜在的安全风险,可能影响依赖Copilot进行代码开发的广泛开发者群...

Read More
  1. 1
  2. 2
  3. 3
  4. Next Page