近日,自然语言处理领域迎来一项重要技术突破——MiniPLM框架正式发布。该框架创新性地提出了一种高效的小型语言模型(SLM)预训练方法,通过从大型语言模型(LLM)中提取知识进行蒸馏训练,显著提升了小模型的性能表...
Read More近日,一项关于大语言模型(LLMs)在实体建模领域应用的研究引发了科技界的广泛关注。该研究探索了如何让LLMs掌握实体建模这一传统上需要专业CAD软件技能的复杂任务。研究者通过创新的训练方法,使LLMs能够理解三维...
Read MoreDeepMind近日发布了其几何模型AlphaGeometry的重大升级版本AlphaGeometry 2,该模型在解决几何问题上的正确率从先前方法的54%大幅提升至84%。这一突破性进展主要得益于Gemini语言模型的整合以及更高效的搜索算法。Al...
Read More近日,一项名为REPA-E的技术突破引发了机器学习领域的广泛关注。该技术通过创新的表示对齐损失函数,首次实现了变分自编码器(VAE)与潜在扩散模型的稳定联合训练。这种端到端的训练方法在ImageNet数据集上取得了当前...
Read More近期发表于arXiv的研究ThinkLite-VL通过创新性地应用蒙特卡洛树搜索(MCTS)技术量化样本难度,在视觉语言模型(VLM)领域取得突破性进展。该方法仅需11,000个训练样本即可显著提升模型推理能力,且无需依赖知识蒸馏...
Read More腾讯ARC实验室最新发布的SEED-Bench-R1基准测试,为多模态大语言模型(MLLM)在复杂视频任务中的表现提供了系统评估框架。该研究重点关注强化学习(RL)和监督微调(SFT)等后训练方法,揭示了RL在视觉感知任务和数...
Read More近日,Dereflection Any Image(DAI)项目推出了一种基于扩散模型的图像反反射新技术,该技术利用高质量数据集和渐进式训练方法,显著提升了图像反反射的效果。反反射技术一直是计算机视觉领域的重要研究方向,尤其...
Read MoreMidjourney近期发布了一项重要工作,旨在提升创意写作模型的多样性表现。该团队通过对一个较小的7B模型进行后训练,使其在创意写作任务中的表现超越了更大规模的开放和封闭模型。这一突破不仅展示了模型优化技术的潜...
Read More