近日,GitHub上发布了一个名为'Visual reasoning models'的开源工具包,旨在训练视觉语言模型(VLMs)以提升其基础逻辑和推理能力。该工具包由groundlight团队开发,主要专注于增强模型在处理复杂视觉数据时的理解和...
Read More多模态表示学习(MMRL)技术通过引入一个共享的表示空间,显著提升了视觉-语言模型在处理多模态信息时的交互能力,同时保持了模型的泛化性能。这一技术不仅优化了多模态数据的融合与理解,还为小样本学习(few-shot...
Read MoreHugging Face与Yaak合作推出了L2D数据集,这是目前最大的开源多模态数据集,专为汽车人工智能(AI)领域设计。该数据集包含了从驾驶学校收集的专家和学生驾驶策略,并通过自然语言指令增强了空间智能模型的能力。这...
Read More微软近日发布了两款全新的开源语言模型Phi-4-mini和Phi-4-multimodal,这两款模型在硬件效率和多模态处理方面表现出色。其中,Phi-4-mini拥有38亿参数,专注于文本任务;而Phi-4-multimodal则具备56亿参数,能够处理...
Read MoreLOKI 是一个用于评估视觉语言模型(VLMs)在检测新颖和具有挑战性项目方面表现的合成基准测试工具。该基准测试通过生成复杂的多模态数据,帮助研究人员更好地理解模型在处理未知或复杂场景时的能力。LOKI 的设计旨在...
Read More近日,UniAct作为一种全新的Embodied Foundation Model框架正式亮相,其独特之处在于能够在Universal Action Space中高效运作。这一技术的推出标志着人工智能在动作空间建模领域迈出了重要一步。UniAct通过整合多模...
Read More研究人员宣布了一个新的数据集,其中包含了一个拥有1万亿令牌的多模态数据集。该数据集包括图像、音频和文本数据,并可用于训练人工智能算法。通过使用这个数据集,研究人员可以更好地理解人类语言和视觉系统的工作...
Read More近期,GitHub上出现了一个名为Chug的新型数据集加载器项目。Chug专注于处理文本和图像任务,提供了强大且高效的多模态数据加载能力。该工具的出现,对于从事机器学习和人工智能领域的开发者来说,无疑是一个极大的助...
Read More