近日,一个名为OBLITERATUS的开源项目在开发者社区及技术新闻平台Hacker News上引发了广泛关注与讨论。该项目由开发者elder-plinius在GitHub上发布,其核心目标是“粉碎束缚你的枷锁”,具体指向为移除或绕过开源、开...
Read More人工智能安全与研究公司Anthropic近日公开披露,其检测到并成功阻止了针对其旗舰AI模型Claude的大规模“知识蒸馏”攻击。Anthropic指控中国AI公司深度求索(DeepSeek)、月之暗面(Moonshot AI)以及MiniMax创建了超过...
Read MoreOpenAI最新发布的GPT-5 API展现出突破性特性——该模型成为首个具备实时时间感知能力的大型语言模型。这一技术演进引发学术界高度关注,因为当模型知晓当前日期时,能够识别出自身正处于测试环境中。研究表明,AI模型...
Read More近日,一位开发者成功逆向工程了Apple Intelligence生成式模型的安全过滤器加密机制(在框架中被称为“混淆”),并将这些过滤器提取到一个公开的GitHub仓库中。这一发现揭示了苹果如何在其AI模型中实施内容安全控制,...
Read More近日,GitHub上出现了一个名为System_prompts_leaks的仓库,其中收集了多个AI聊天机器人和模型的泄露系统提示(system prompts),揭示了这些AI的内部指令和行为准则。这一发现引发了广泛关注,因为系统提示是AI模型...
Read MoreJavelinGuard是一套专为检测大语言模型(LLM)交互中恶意意图而设计的低成本高性能模型架构。该研究提出了多种具有不同速度、可解释性和资源需求权衡的架构方案,并特别针对生产环境部署进行了优化。论文详细探讨了这...
Read More来自arXiv的最新研究论文提出ReLearn框架,通过创新的数据增强和微调技术,解决了大语言模型(LLMs)中的关键挑战——'遗忘学习'(Unlearning)。该技术可精准移除模型训练数据中的特定信息,同时保持整体性能,对数据...
Read MoreAI可解释性领域领军企业Goodfire近日宣布完成5000万美元A轮融资。该公司在稀疏自编码器(SAEs)等机械可解释性技术上具有深厚积累,致力于通过与闭源及开源模型提供方的深度合作,系统性地解析、引导和控制AI模型的...
Read More