近日,Qwen发布了一款名为Qwen Omni 7B的多模态模型,该模型能够原生理解多种不同的模态数据,并以文本或语音的形式进行响应。这一技术的推出标志着人工智能在多模态处理领域迈出了重要一步。Qwen Omni 7B不仅能够处...
Read MoreBaichuan Omni 1.5 是一款支持文本、图像、视频和音频输入以及文本和音频输出的开源全模态基础模型。该模型采用任意到任意(any-to-any)的设计风格,属于原生多模态模型的一种典型代表。其核心技术在于使用了交错的...
Read MoreMaTVLM是一个创新的混合视觉语言模型,通过将Mamba-2层集成到预训练的视觉语言模型(VLM)中,显著提升了其收敛速度与整体性能。这一技术突破不仅在学术界引起了广泛关注,也为工业界的应用带来了新的可能性。视觉语...
Read MoreLuma首席科学家宋嘉明,作为最早为扩散模型开发加速算法的先驱,近日发布了新的多模态预训练方法——Inductive Moment Matching(IMM)。这一新方法不仅超越了传统扩散模型在样本质量上的表现,还实现了10倍以上的效率...
Read More近日,R1-OneVision作为一种多功能的大型多模态模型,正式在GitHub上发布。该模型通过整合视觉与文本数据,在数学、科学、深度图像理解及逻辑推理等复杂任务中表现出色。R1-OneVision的设计旨在解决传统单一模态模型...
Read MoreSigLIP2作为SigLIP的升级版本,在多个方面实现了显著改进。SigLIP原本是一款广受欢迎的联合图像与文本编码模型,而SigLIP2在零样本分类性能上取得了重大突破,这一性能曾是CLIP模型的标志性成果。此次升级不仅提升了...
Read MoreTogether AI推出了Llama 3.2版本,用户可以在Together Playground上免费体验这一全新多模态模型。该模型在训练、微调和推理方面支持200多个模型,包括最新的Llama 3.2视觉模型。Llama 3.2在生产规模下实现了4倍的速...
Read MoreAnole是一款基于Meta的Chameleon模型构建的开放自回归多模态模型。近期,研究者们着重对该模型进行了微调,成功地将图像生成能力重新整合进了模型中。这一改进不仅提高了模型的功能性,也为未来的开发打开了新的可能...
Read More