漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-04-18 talkingdev

Meta发布多项AI新成果:图像编码器、视觉语言模型及3D物体定位系统

Meta公司近日重磅推出四项人工智能领域的重要技术成果:1)高性能图像编码器,可优化视觉数据的特征提取效率;2)视觉语言模型(VLM),实现跨模态理解与生成;3)基于联合嵌入预测架构(JEPA)的3D物体定位模型,突...

Read More
2025-04-16 talkingdev

MoonDream 2.0重磅升级:2B参数小模型性能超越主流开源与闭源模型

近日,轻量级视觉语言模型MoonDream迎来2.0版本重大更新。这款仅含20亿参数的VLM(Vision-Language Model)在最新测试中展现出惊人实力,其性能不仅超越多个同量级开源模型,甚至在部分基准测试中优于参数规模更大的...

Read More
2025-04-15 talkingdev

[论文推荐]ThinkLite-VL:仅用1.1万训练样本实现视觉语言模型高效推理

近期发表于arXiv的研究ThinkLite-VL通过创新性地应用蒙特卡洛树搜索(MCTS)技术量化样本难度,在视觉语言模型(VLM)领域取得突破性进展。该方法仅需11,000个训练样本即可显著提升模型推理能力,且无需依赖知识蒸馏...

Read More
2025-04-15 talkingdev

[论文推荐]InteractVLM:基于2D基础模型的3D交互推理新突破

InteractVLM作为新一代视觉语言模型(VLM),实现了从2D到3D的交互推理跨越。该模型通过创新性地利用强大的基础模型,结合多视角渲染技术,将2D推理能力提升至3D空间,能够精准分析人类与物体在三维环境中的接触关系。...

Read More
2025-03-26 talkingdev

[开源] Qwen 2.5 32B 视觉语言模型发布,性能卓越且支持消费级硬件

近日,Qwen团队发布了一款名为Qwen 2.5 32B的视觉语言模型,该模型不仅具备强大的多模态处理能力,而且完全开源,能够在消费级硬件上高效运行。这一重大突破为AI领域的研究者和开发者提供了更加灵活和便捷的工具,尤...

Read More
2025-03-19 talkingdev

[开源] MaTVLM:融合Mamba-2层的混合视觉语言模型

MaTVLM是一个创新的混合视觉语言模型,通过将Mamba-2层集成到预训练的视觉语言模型(VLM)中,显著提升了其收敛速度与整体性能。这一技术突破不仅在学术界引起了广泛关注,也为工业界的应用带来了新的可能性。视觉语...

Read More
2025-03-17 talkingdev

[开源] Visual reasoning models:提升视觉语言模型推理能力的新工具包

近日,GitHub上发布了一个名为'Visual reasoning models'的开源工具包,旨在训练视觉语言模型(VLMs)以提升其基础逻辑和推理能力。该工具包由groundlight团队开发,主要专注于增强模型在处理复杂视觉数据时的理解和...

Read More
2025-03-11 talkingdev

视觉语言模型的新突破:简单可验证奖励与规模化强化学习的结合

近期,一项关于视觉语言模型(Vision Language Models)的研究引起了广泛关注。该研究通过结合简单可验证奖励机制与规模化强化学习(Scaled Reinforcement Learning),显著提升了模型的性能。研究团队在论文中详细...

Read More
  1. 1
  2. 2
  3. 3
  4. Next Page