近日,轻量级视觉语言模型MoonDream迎来2.0版本重大更新。这款仅含20亿参数的VLM(Vision-Language Model)在最新测试中展现出惊人实力,其性能不仅超越多个同量级开源模型,甚至在部分基准测试中优于参数规模更大的...
Read More近期发表于arXiv的研究ThinkLite-VL通过创新性地应用蒙特卡洛树搜索(MCTS)技术量化样本难度,在视觉语言模型(VLM)领域取得突破性进展。该方法仅需11,000个训练样本即可显著提升模型推理能力,且无需依赖知识蒸馏...
Read MoreInteractVLM作为新一代视觉语言模型(VLM),实现了从2D到3D的交互推理跨越。该模型通过创新性地利用强大的基础模型,结合多视角渲染技术,将2D推理能力提升至3D空间,能够精准分析人类与物体在三维环境中的接触关系。...
Read More近日,Qwen团队发布了一款名为Qwen 2.5 32B的视觉语言模型,该模型不仅具备强大的多模态处理能力,而且完全开源,能够在消费级硬件上高效运行。这一重大突破为AI领域的研究者和开发者提供了更加灵活和便捷的工具,尤...
Read MoreMaTVLM是一个创新的混合视觉语言模型,通过将Mamba-2层集成到预训练的视觉语言模型(VLM)中,显著提升了其收敛速度与整体性能。这一技术突破不仅在学术界引起了广泛关注,也为工业界的应用带来了新的可能性。视觉语...
Read More近日,GitHub上发布了一个名为'Visual reasoning models'的开源工具包,旨在训练视觉语言模型(VLMs)以提升其基础逻辑和推理能力。该工具包由groundlight团队开发,主要专注于增强模型在处理复杂视觉数据时的理解和...
Read More近期,一项关于视觉语言模型(Vision Language Models)的研究引起了广泛关注。该研究通过结合简单可验证奖励机制与规模化强化学习(Scaled Reinforcement Learning),显著提升了模型的性能。研究团队在论文中详细...
Read More近日,Qwen团队发布了Qwen 2.5 VL技术报告,详细介绍了其最新研发的视觉语言模型。该模型被誉为目前最强的开源权重视觉语言模型,具备卓越的多模态处理能力,能够高效地理解和生成图像与文本的结合内容。Qwen 2.5 VL...
Read More