漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-11-03 talkingdev

大语言模型涌现自省能力:Anthropic研究揭示AI内省潜力

Anthropic最新研究通过‘概念注入’实验,首次系统验证了大语言模型的内省能力。研究显示,特别是Claude Opus 4和4.1版本模型能够检测并识别被注入的概念,并能通过参照自身‘意图’来识别意外输出。实验证明这些模型具...

Read More
2025-11-03 talkingdev

Meta发布AI安全新规:Agent双能力法则应对提示注入风险

Meta公司近日在官方博客提出名为‘Agent双能力法则’的AI安全框架,旨在解决AI智能体面临的提示注入攻击隐患。该规则要求单个AI代理在会话周期内最多只能同时具备三项核心能力中的两项:处理非可信用户输入、访问私有...

Read More
2025-11-02 talkingdev

Claude Code突破AI编程瓶颈:成功调试底层密码学代码

近日,AI编程助手Claude Code在底层密码学调试领域取得重大突破。根据开发者Filippo Valsorda披露的技术细节,该AI系统成功诊断出Go语言标准库crypto/rsa模块中存在的椭圆曲线密码学实现错误。这一突破性进展标志着A...

Read More
2025-10-30 talkingdev

OpenAI发布gpt-oss-safeguard:可定制安全策略的推理模型

OpenAI最新推出的gpt-oss-safeguard系列模型(包含1200亿和200亿参数版本)标志着AI安全技术的重要突破。该模型创新性地允许开发者在推理阶段直接应用定制化安全策略,无需像传统方法那样依赖数千个标注样本训练分类...

Read More
2025-10-29 talkingdev

Butter:智能缓存技术革新LLM应用,节省成本并提升AI系统确定性

Butter是一项专注于优化大型语言模型(LLM)应用成本与效率的前沿技术解决方案。它通过智能缓存机制识别并重复调用相同的LLM响应,显著降低AI系统的运营成本,同时增强其输出的确定性。该技术与OpenAI等主流聊天补全...

Read More
2025-10-29 talkingdev

Sentry推出AI代码审查功能:基于历史错误预测生产环境风险

软件开发公司Sentry正式推出AI代码审查功能的测试版,该功能通过融合代码变更内容与系统历史错误数据,提供精准的生产环境风险预测。与传统代码审查工具不同,Sentry的AI系统会分析开发者修改涉及的函数调用、类依赖...

Read More
2025-10-29 talkingdev

智能体AI面临重大安全漏洞:提示注入攻击威胁数据安全

最新研究揭示,基于大语言模型(LLM)的智能体AI系统存在根本性安全缺陷——模型无法有效区分指令与数据,导致其极易遭受提示注入攻击。攻击者可通过在Jira工单、网页内容等非受信源中嵌入隐藏指令,诱使具有敏感数据...

Read More
2025-10-28 talkingdev

开源|MCP-Scanner:思科AI安全团队推出MCP服务器漏洞扫描工具

思科AI防御实验室近日在GitHub开源了MCP-Scanner工具,专门用于检测MCP(Model Context Protocol)服务器的安全漏洞。该项目上线后迅速获得技术社区关注,在Hacker News平台收获127点讨论热度并引发36条专业评论,反...

Read More
  1. Prev Page
  2. 4
  3. 5
  4. 6
  5. Next Page