谷歌研究团队近日推出了全新大语言模型VaultGemma,这是全球首个基于严格差分隐私(Differential Privacy)技术从头训练的大型语言模型。该模型通过数学层面可验证的隐私保护机制,在训练过程中注入经过精确校准的噪...
Read More这篇技术长文系统性地剖析了大语言模型(LLM)的后训练完整生命周期,涵盖了监督微调(SFT)、奖励建模(Reward Modeling)以及强化学习方法(如RLHF)三大核心阶段。作者不仅详细阐述了如何通过人类反馈的强化学习...
Read More谷歌研究团队正式推出VaultGemma模型,这是目前全球最大的基于差分隐私技术从头训练的开源大语言模型,参数量达到10亿级别。该模型已在Hugging Face和Kaggle平台开放访问。VaultGemma采用严格的差分隐私训练框架,在...
Read More大型语言模型(LLM)推理过程中的非确定性问题正成为制约科学研究可重复性的关键障碍。即使将温度参数调整为0(贪婪采样模式),ChatGPT等模型仍无法保证输出结果的确定性。这种现象不仅存在于API服务中,即使在本地...
Read More清华大学团队开源AgentScope框架,为大型语言模型应用开发提供全新范式。该框架采用智能体导向编程(Agent-Oriented Programming)设计理念,显著提升LLM应用的透明度和实时可控性。其核心特性包括工具管理、长时记...
Read MoreGitHub上最新开源项目“Awesome Agentic LLM+RL Papers”系统性地整理了大语言模型(LLM)与强化学习(RL)结合的智能体研究领域的关键论文资源。该资源库聚焦于Agentic AI这一前沿方向,涵盖了LLM作为决策核心与RL训...
Read More研究人员通过前沿AI技术实现了重大突破:利用自主生成的Metal GPU内核,将PyTorch在苹果设备上的推理速度平均提升1.87倍。这项研究测试了215个PyTorch模型,其中部分工作负载甚至达到基线性能的数百倍加速。该技术采...
Read More随着Model Context Protocol(MCP)迅速成为连接大语言模型与外部工具数据的核心标准,其安全风险正引发行业高度关注。Wiz最新发布的研究指南指出,尽管MCP能显著提升LLM与外部系统的集成效率,但许多团队在缺乏明确...
Read More