漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2026-01-07 talkingdev

AI安全新防线:深入解析AI沙盒技术的三大核心与四大方案

随着AI智能体(AI Agents)的广泛应用,执行不可信代码已成为常态,而沙盒技术正是保障系统安全的关键防线。一篇深度技术分析文章系统性地指出,构建一个有效的AI沙盒需要从三个核心维度进行考量:隔离边界、访问策...

Read More
2025-12-28 talkingdev

OpenAI设立“防范主管”新职位,奥特曼警示AI模型对心理健康的影响已在2025年显现端倪

OpenAI首席执行官萨姆·奥特曼近日在社交平台X上宣布,公司正在招聘一位全新的“防范主管”(Head of Preparedness),以系统性地预测和缓解人工智能技术可能带来的各类风险。奥特曼特别指出,AI模型对心理健康的潜在影...

Read More
2025-12-22 talkingdev

开源Bloom工具:自动化评估AI模型行为,提升安全性与可解释性

Anthropic近日开源了名为Bloom的工具,这是一个专门用于对AI模型进行自动化行为评估的开源解决方案。该工具通过创建特定场景并量化不同模型中的行为发生率,能够系统性地评估如自我偏好偏见、蓄意破坏等具体行为模式...

Read More
2025-12-20 talkingdev

纽约州签署RAISE法案,AI安全监管再添一州,法案文本向加州SB 53看齐

纽约州州长凯西·霍楚于周五正式签署了《负责任人工智能安全法案》(RAISE Act),使之成为法律。此举标志着纽约州成为美国最新一个针对最先进人工智能模型制定广泛安全规则的州。值得注意的是,该法案在最终签署前,...

Read More
2025-12-16 talkingdev

隐私扩展反成数据贩子?800万用户AI对话记录被标价出售

近期,一项由Koi.ai博客披露的调查显示,打着“隐私保护”旗号的浏览器扩展程序(如Urban VPN等)涉嫌大规模收集并转售用户的AI对话数据,受影响用户数量高达800万。这些扩展程序通常以提供VPN或隐私增强功能为诱饵,...

Read More
2025-12-09 talkingdev

OpenAI利用稀疏自编码器与潜在归因技术,精准调试语言模型对齐问题

OpenAI的研究团队近期在模型可解释性领域取得重要进展,通过结合稀疏自编码器与创新的潜在归因方法,系统性地定位和解决大型语言模型中的行为错位问题。该研究提出的归因方法能够有效识别稀疏自编码器潜在空间中导致...

Read More
2025-12-07 talkingdev

亚马逊VP Byron Cook领衔:揭秘“自动推理检查”如何对抗AI幻觉

亚马逊副总裁兼杰出科学家Byron Cook正领导一项关键任务:利用一种名为“自动推理检查”(Automated Reasoning Checks)的功能,来减少生成式人工智能中最令人头疼的副作用——“幻觉”问题。Cook的团队致力于将一种相对小...

Read More
2025-11-25 talkingdev

重磅发布:Anthropic推出Claude Opus 4.5模型,AI安全领域再获突破

人工智能安全与研究公司Anthropic正式发布Claude Opus 4.5模型,标志着可信AI系统建设迈入新阶段。作为专注于构建可靠、可解释与可操控AI系统的先锋企业,Anthropic此次更新延续了其在前沿AI安全技术领域的深度布局...

Read More
  1. 1
  2. 2
  3. 3
  4. Next Page