谷歌研究团队正式推出VaultGemma模型,这是目前全球最大的基于差分隐私技术从头训练的开源大语言模型,参数量达到10亿级别。该模型已在Hugging Face和Kaggle平台开放访问。VaultGemma采用严格的差分隐私训练框架,在...
Read More最新技术基准测试表明,云端分布式训练中基础设施配置对大型语言模型(LLM)训练效率具有决定性影响。专业分析显示,网络架构与存储方案的差异可能导致训练性能出现高达6-7倍的波动,直接关联数百万美元的计算成本。...
Read More大型语言模型(LLM)推理过程中的非确定性问题正成为制约科学研究可重复性的关键障碍。即使将温度参数调整为0(贪婪采样模式),ChatGPT等模型仍无法保证输出结果的确定性。这种现象不仅存在于API服务中,即使在本地...
Read More《智能体系统系列》正式发布,这是一本专注于构建生产环境可用AI编程助手的权威指南。该著作系统性地涵盖了从基础概念到企业级协作系统实现的全套知识体系,特别对Amp、Claude Code等真实生产系统进行了深度技术解析...
Read More清华大学团队开源AgentScope框架,为大型语言模型应用开发提供全新范式。该框架采用智能体导向编程(Agent-Oriented Programming)设计理念,显著提升LLM应用的透明度和实时可控性。其核心特性包括工具管理、长时记...
Read MoreGitHub上最新开源项目“Awesome Agentic LLM+RL Papers”系统性地整理了大语言模型(LLM)与强化学习(RL)结合的智能体研究领域的关键论文资源。该资源库聚焦于Agentic AI这一前沿方向,涵盖了LLM作为决策核心与RL训...
Read More提示注入攻击正成为大型语言模型面临的新型安全威胁,这种攻击通过操纵自然语言处理能力来利用系统漏洞,其原理类似于传统的SQL注入攻击。研究人员最新提出了六种核心设计模式来强化AI智能体的安全防护:行动选择器...
Read More随着Model Context Protocol(MCP)迅速成为连接大语言模型与外部工具数据的核心标准,其安全风险正引发行业高度关注。Wiz最新发布的研究指南指出,尽管MCP能显著提升LLM与外部系统的集成效率,但许多团队在缺乏明确...
Read More