Luma首席科学家宋嘉明,作为最早为扩散模型开发加速算法的先驱,近日发布了新的多模态预训练方法——Inductive Moment Matching(IMM)。这一新方法不仅超越了传统扩散模型在样本质量上的表现,还实现了10倍以上的效率...
Read MoreTransformer模型在自然语言处理和其他领域取得了显著的成功,而其核心之一是层归一化(Layer Normalization)。然而,最新的研究提出了一种替代方案:通过精心设计的tanh函数,可以在不依赖层归一化的情况下保持模型...
Read More近日,Luma Labs在GitHub上开源了一个名为感应矩匹配(Inductive Moment Matching, IMM)的项目,该项目通过一种新的矩匹配框架,为连续数据的扩散模型提供了一种统一且简化的解决方案。这一技术不仅显著减少了生成...
Read More近日,GitHub开源项目LM-Implicit-Reasoning引发了广泛关注。该研究深入探讨了语言模型在逐步隐式推理方面的表现,揭示了其在处理包含变量作为减数的表达式时的泛化能力不足的问题。语言模型在自然语言处理(NLP)领...
Read More谷歌近日发布了Gemma 3模型的权重和技术报告,这一模型共有四种规模,其性能与Gemini 1.5 Pro相当。Gemma 3不仅在多语言处理上表现出色,能够理解超过140种语言,还被认为是接近当前最先进的密集模型之一。这一发布...
Read More在最新的研究进展中,科学家提出了一种广义离散扩散方法,该方法显著改进了在文本等离散数据上的扩散过程。这一创新通过引入一种广义的去噪过程和略微改进的掩码方案,使得训练过程更加高效,并赋予了模型自我校正输...
Read More概率人工智能(Probabilistic Artificial Intelligence)作为人工智能领域的重要分支,近年来在学术界和工业界引起了广泛关注。其核心思想是通过概率模型来处理不确定性问题,从而提升AI系统的决策能力和鲁棒性。与...
Read More近日,Gemini团队宣布成功训练并发布了一款全新的文本Embedding模型。该模型在多项基准测试中表现优异,不仅性能卓越,还具备出色的运行速度。此外,其定价策略也相当合理,使其成为市场上极具竞争力的选择。这一模...
Read More