近日,DriveLMM-o1项目发布了一款全新的数据集和基准测试,旨在提升自动驾驶系统中逐步视觉推理的准确性和决策能力。该数据集通过模拟复杂的驾驶场景,为人工智能驱动的自动驾驶技术提供了更加精细的视觉推理支持。D...
Read More近日,GitHub上发布了一个名为'Visual reasoning models'的开源工具包,旨在训练视觉语言模型(VLMs)以提升其基础逻辑和推理能力。该工具包由groundlight团队开发,主要专注于增强模型在处理复杂视觉数据时的理解和...
Read More多模态表示学习(MMRL)技术通过引入一个共享的表示空间,显著提升了视觉-语言模型在处理多模态信息时的交互能力,同时保持了模型的泛化性能。这一技术不仅优化了多模态数据的融合与理解,还为小样本学习(few-shot...
Read MoreDeepMind近日发布了名为TIPS的新型图像-文本模型,专为密集型和全局视觉任务设计。该模型通过结合对比学习与掩码图像建模技术,并利用合成字幕进行训练,显著提升了空间感知能力。在多项基准测试中,TIPS的表现均超...
Read More在计算机视觉和人工智能领域,3D重建技术一直是一个重要的研究方向。最近,GitHub上出现了一个名为“Perception Efficient Reconstruction”(PE3R)的项目,该项目将文本查询功能与从图像中进行3D重建的技术相结合,...
Read MoreYoloE 是一种创新的小型视觉模型,能够通过多种方式进行提示,以实现开放词汇检测。这意味着用户可以使用类别、图像和文本来决定模型应该检测的内容。特别值得一提的是,YoloE 的运行速度高达 300 帧每秒(fps),使...
Read MoreHugging Face与Yaak合作推出了L2D数据集,这是目前最大的开源多模态数据集,专为汽车人工智能(AI)领域设计。该数据集包含了从驾驶学校收集的专家和学生驾驶策略,并通过自然语言指令增强了空间智能模型的能力。这...
Read More近日,L-MAP技术在离线强化学习(Offline RL)领域取得了显著进展,特别是在处理随机、高维连续动作空间中的序列决策问题。L-MAP通过结合VQ-VAE模型,成功学习并优化了宏动作(macro-actions),从而显著提升了决策...
Read More