近日,Qwen2.5-VL这一全新的视觉语言模型推出了配套的Cookbooks,详细展示了如何利用该模型完成多种不同的任务。Qwen2.5-VL作为一款先进的视觉语言模型,具备强大的多模态处理能力,能够同时理解图像和文本信息。此...
Read MoreLOKI 是一个用于评估视觉语言模型(VLMs)在检测新颖和具有挑战性项目方面表现的合成基准测试工具。该基准测试通过生成复杂的多模态数据,帮助研究人员更好地理解模型在处理未知或复杂场景时的能力。LOKI 的设计旨在...
Read MoreLuma AI近日发布了其最新的大规模视频生成模型Ray2,该模型在真实视觉效果、自然连贯的运动以及逻辑事件序列方面设定了新的标准。Ray2基于Luma全新的多模态架构进行训练,计算能力较前代Ray1提升了10倍。目前,Ray2...
Read More近日,GitHub上发布了一个名为DETRIS的参数高效调优框架,该框架专注于提升多模态任务中视觉特征的传播效率。DETRIS通过密集互连和文本适配器(text adapters)来增强视觉特征的传播,特别是在编码器未对齐的情况下...
Read More近日,UniAct作为一种全新的Embodied Foundation Model框架正式亮相,其独特之处在于能够在Universal Action Space中高效运作。这一技术的推出标志着人工智能在动作空间建模领域迈出了重要一步。UniAct通过整合多模...
Read MoreTogether AI推出了Llama 3.2版本,用户可以在Together Playground上免费体验这一全新多模态模型。该模型在训练、微调和推理方面支持200多个模型,包括最新的Llama 3.2视觉模型。Llama 3.2在生产规模下实现了4倍的速...
Read More研究人员宣布了一个新的数据集,其中包含了一个拥有1万亿令牌的多模态数据集。该数据集包括图像、音频和文本数据,并可用于训练人工智能算法。通过使用这个数据集,研究人员可以更好地理解人类语言和视觉系统的工作...
Read More研究人员提出了一种名为“多模态专家混合体” (MoME) 的方法,以解决通用的多模态大型语言模型(MLLMs)中的任务干扰问题。在多模态大型语言模型中,任务干扰是一个常见的问题,它可能会影响模型的性能和效率。MoME的提...
Read More