漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-09-16 talkingdev

PyTorch与vLLM联手实现分解式推理,大幅提升大语言模型生产环境性能

Meta公司内部团队与vLLM、PyTorch展开深度技术合作,成功推出预填充/解码分离技术(prefill/decode disaggregation),这项突破性技术显著提升了大规模语言模型在生产环境中的推理性能。通过将推理过程分解为预填充...

Read More
2025-09-16 talkingdev

开源|RustGPT:纯Rust编写的Transformer架构大语言模型

RustGPT是一项具有里程碑意义的开源项目,它首次实现了完全基于Rust编程语言的大型语言模型(LLM)开发,不依赖任何外部机器学习框架。该项目采用纯Rust代码构建,仅使用ndarray库进行矩阵运算,彻底摆脱了对PyTorch...

Read More
2025-09-16 talkingdev

突破推荐系统边界:LLM与Semantic IDs融合实现可操控语义推荐

这项技术研究提出了一种革命性的推荐系统架构,通过将语义化标识符(Semantic IDs)嵌入大型语言模型,替代传统的随机哈希ID机制。该方案使LLM能够同时理解自然语言和项目语义标识,实现了无需外部检索工具的直接对...

Read More
2025-09-15 talkingdev

Linus Torvalds谈代码质量:为何应避免编写"垃圾代码"

Linux和Git创始人Linus Torvalds近日针对代码编写哲学提出重要观点,强调过度复杂和抽象化的代码会严重损害软件的可维护性与可理解性。他指出,开发者常倾向于创建不必要的辅助函数或过度抽象层,这反而增加了认知负...

Read More
2025-09-15 talkingdev

VaultGemma:谷歌发布全球最强差分隐私大语言模型

谷歌研究团队近日推出了全新大语言模型VaultGemma,这是全球首个基于严格差分隐私(Differential Privacy)技术从头训练的大型语言模型。该模型通过数学层面可验证的隐私保护机制,在训练过程中注入经过精确校准的噪...

Read More
2025-09-15 talkingdev

LLM后训练全流程深度解析:从SFT到RLHF与评估最佳实践

这篇技术长文系统性地剖析了大语言模型(LLM)的后训练完整生命周期,涵盖了监督微调(SFT)、奖励建模(Reward Modeling)以及强化学习方法(如RLHF)三大核心阶段。作者不仅详细阐述了如何通过人类反馈的强化学习...

Read More
2025-09-14 talkingdev

谷歌发布VaultGemma:全球最大具备差分隐私训练的开源10亿参数LLM

谷歌研究团队正式推出VaultGemma模型,这是目前全球最大的基于差分隐私技术从头训练的开源大语言模型,参数量达到10亿级别。该模型已在Hugging Face和Kaggle平台开放访问。VaultGemma采用严格的差分隐私训练框架,在...

Read More
2025-09-11 talkingdev

突破LLM推理非确定性难题:科学家提出确定性推理解决方案

大型语言模型(LLM)推理过程中的非确定性问题正成为制约科学研究可重复性的关键障碍。即使将温度参数调整为0(贪婪采样模式),ChatGPT等模型仍无法保证输出结果的确定性。这种现象不仅存在于API服务中,即使在本地...

Read More
  1. Prev Page
  2. 4
  3. 5
  4. 6
  5. Next Page