近日,一项名为REPA-E的技术突破引发了机器学习领域的广泛关注。该技术通过创新的表示对齐损失函数,首次实现了变分自编码器(VAE)与潜在扩散模型的稳定联合训练。这种端到端的训练方法在ImageNet数据集上取得了当前...
Read More近期发表于arXiv的研究ThinkLite-VL通过创新性地应用蒙特卡洛树搜索(MCTS)技术量化样本难度,在视觉语言模型(VLM)领域取得突破性进展。该方法仅需11,000个训练样本即可显著提升模型推理能力,且无需依赖知识蒸馏...
Read More腾讯ARC实验室最新发布的SEED-Bench-R1基准测试,为多模态大语言模型(MLLM)在复杂视频任务中的表现提供了系统评估框架。该研究重点关注强化学习(RL)和监督微调(SFT)等后训练方法,揭示了RL在视觉感知任务和数...
Read More近日,Dereflection Any Image(DAI)项目推出了一种基于扩散模型的图像反反射新技术,该技术利用高质量数据集和渐进式训练方法,显著提升了图像反反射的效果。反反射技术一直是计算机视觉领域的重要研究方向,尤其...
Read MoreMidjourney近期发布了一项重要工作,旨在提升创意写作模型的多样性表现。该团队通过对一个较小的7B模型进行后训练,使其在创意写作任务中的表现超越了更大规模的开放和封闭模型。这一突破不仅展示了模型优化技术的潜...
Read MoreLuma首席科学家宋嘉明,作为最早为扩散模型开发加速算法的先驱,近日发布了新的多模态预训练方法——Inductive Moment Matching(IMM)。这一新方法不仅超越了传统扩散模型在样本质量上的表现,还实现了10倍以上的效率...
Read More近日,GitHub上发布了一款名为FlowDec的高质量音频压缩工具。FlowDec是一款全频带音频编解码器,采用条件流匹配(conditional flow matching)和非对抗性训练(non-adversarial training)技术,能够实现48 kHz高保...
Read More近期,一项针对OpenAI的o1/o3和DeepSeek的R1等推理型LLM的研究揭示了这些模型在逐步逻辑推理能力方面的表现。研究通过对比人类认知能力,对这些模型进行了基准测试。结果显示,尽管LLM在复杂任务中表现出色,但在需...
Read More