McGill-NLP实验室推出的Nano Aha Moment项目在GitHub开源,该项目通过极简架构实现高性能深度学习训练——仅需单个文件和一块GPU即可完成从零开始的完整参数调优,并复现了DeepSeek R1-Zero模型的训练范式。这一突破性...
Read MoreLuma首席科学家宋嘉明,作为最早为扩散模型开发加速算法的先驱,近日发布了新的多模态预训练方法——Inductive Moment Matching(IMM)。这一新方法不仅超越了传统扩散模型在样本质量上的表现,还实现了10倍以上的效率...
Read More近日,Luma Labs在GitHub上开源了一个名为感应矩匹配(Inductive Moment Matching, IMM)的项目,该项目通过一种新的矩匹配框架,为连续数据的扩散模型提供了一种统一且简化的解决方案。这一技术不仅显著减少了生成...
Read More研究人员提出了一种名为“多模态专家混合体” (MoME) 的方法,以解决通用的多模态大型语言模型(MLLMs)中的任务干扰问题。在多模态大型语言模型中,任务干扰是一个常见的问题,它可能会影响模型的性能和效率。MoME的提...
Read More