PyTorch工程师团队通过分布式检查点(DCP)中的模块化压缩技术,成功将检查点文件体积减少22%。这项突破性优化显著降低了分布式训练过程中的存储占用和带宽消耗。文章详细阐述了该技术的集成步骤和关键设计选择,包...
Read MorePyTorch与vLLM近日宣布深化技术整合,新增支持量化、注意力机制定制及异构硬件加速等关键功能。这一合作标志着两大开源框架在优化大语言模型(LLM)推理性能方面取得重要突破:量化技术可降低模型计算资源消耗达4-8...
Read MoreDeepNVMe最新版本实现了多项突破性升级:首先扩展了对模型检查点(checkpointing)和推理工作负载的支持,使深度学习框架能更高效地管理训练中间状态;其次新增PCIe Gen5 NVMe的扩展能力,显著提升存储带宽以应对大...
Read MorePyTorch官方博客最新发布的ParetoQ训练算法在低比特量化领域取得重大突破。该技术首次实现了二元(1-bit)、三元(1.58-bit)和2至4位量化的统一框架,并在所有量化级别上均达到当前最优性能。这一突破性进展尤其适...
Read More开发者yousef-rafat在GitHub上开源了miniDiffusion项目,这是一个完全使用PyTorch重新实现的Stable Diffusion 3.5版本。该项目去除了原始实现中的复杂依赖,仅依靠PyTorch框架,使得模型更加轻量化和易于理解。这一...
Read MoreGitHub最新开源项目Anemll(Artificial Neural Engine Machine Learning Library)引发开发者社区广泛关注,该项目实现了在苹果设备神经引擎(ANE)上高效运行大语言模型(LLMs)的技术突破。作为专为ANE优化的机器学习...
Read More苏黎世联邦理工学院(ETH)研究人员在GitHub开源了名为'Alias free super resolution'的创新项目,该项目通过算法突破解决了超分辨率技术中长期存在的重建伪影问题。传统超分辨率方法在放大图像时往往会产生锯齿、振...
Read More微软DeepSpeed团队在GitHub开源了DeepCompile项目,通过引入编译技术显著提升分布式训练性能。该项目针对训练过程中的瓶颈操作进行深度优化,采用改进版的torch compile实现算子融合与代码生成,实测可使关键操作获...
Read More