过去几年,AI行业一直遵循着类似摩尔定律的发展轨迹,即智能计算成本每年呈数量级下降,且每一代新模型不仅性能更强,运行成本也更低。然而,谷歌上周发布的Gemini 2.5 Flash模型打破了这一趋势——其输入token价格翻...
Read MorePyTorch工程师团队通过分布式检查点(DCP)中的模块化压缩技术,成功将检查点文件体积减少22%。这项突破性优化显著降低了分布式训练过程中的存储占用和带宽消耗。文章详细阐述了该技术的集成步骤和关键设计选择,包...
Read MoreGitHub开源项目TScale提出了一种创新性的分布式训练解决方案,允许开发者在消费级GPU集群上高效运行大规模模型训练。该项目通过优化通信协议和资源调度算法,显著降低了分布式训练的硬件门槛,使中小型研究团队也能...
Read MoreMcGill-NLP实验室推出的Nano Aha Moment项目在GitHub开源,该项目通过极简架构实现高性能深度学习训练——仅需单个文件和一块GPU即可完成从零开始的完整参数调优,并复现了DeepSeek R1-Zero模型的训练范式。这一突破性...
Read More近日,首个基于Muon优化器训练的大规模模型Moonlight 16B在GitHub上正式发布。该模型经过5.7万亿个token的训练,架构与DeepSeek v3高度相似。Muon优化器的引入为大规模模型的训练提供了新的可能性,显著提升了训练效...
Read More字节跳动近期发布了一项名为'Byte Latent Transformer'的新型算法,在大规模模型训练中,采用了Patch而非Token作为基本的处理单元。该算法对于图像和视频内容的理解与分析展现出了卓越的性能,尤其适用于处理高分辨...
Read More近日,研究团队成功在AMD GPU上对Llama 405B进行了微调。这一进展不仅提升了模型的性能,也展示了AMD硬件在深度学习领域的潜力。通过针对特定任务的微调,Llama 405B在处理复杂自然语言处理任务时表现出色,证明了其...
Read More这是一篇关于大规模模型训练的并行化技术的教程。文章详细介绍了不同类型的并行化技术,以及如何在训练大模型时实现高效的并行化。本文介绍了数据并行、模型并行和混合并行等不同的技术,并详细讨论了它们的优缺点。...
Read More