漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-02-21 talkingdev

Qwen 2.5 VL技术报告发布:最强开源视觉语言模型亮相

近日,Qwen团队发布了Qwen 2.5 VL技术报告,详细介绍了其最新研发的视觉语言模型。该模型被誉为目前最强的开源权重视觉语言模型,具备卓越的多模态处理能力,能够高效地理解和生成图像与文本的结合内容。Qwen 2.5 VL...

Read More
2025-02-13 talkingdev

DeepMind突破视觉语言模型预训练规模,1000亿图像助力全球任务性能提升

DeepMind近期在视觉语言模型(VLM)预训练领域取得了重大突破,将训练数据规模提升至前所未有的1000亿张图像。这一规模远超以往尝试,显著提升了模型在多样化全球任务中的表现。尽管在西方中心化任务上的性能已趋于...

Read More
2025-01-31 talkingdev

Qwen2.5-VL Cookbooks发布:助力多任务视觉语言模型应用

近日,Qwen2.5-VL这一全新的视觉语言模型推出了配套的Cookbooks,详细展示了如何利用该模型完成多种不同的任务。Qwen2.5-VL作为一款先进的视觉语言模型,具备强大的多模态处理能力,能够同时理解图像和文本信息。此...

Read More
2025-01-24 talkingdev

LOKI:多模态检测模型的合成基准测试

LOKI 是一个用于评估视觉语言模型(VLMs)在检测新颖和具有挑战性项目方面表现的合成基准测试工具。该基准测试通过生成复杂的多模态数据,帮助研究人员更好地理解模型在处理未知或复杂场景时的能力。LOKI 的设计旨在...

Read More
2024-11-18 talkingdev

论文:LLaVA-O1技术,视觉语言模型的逐步推理能力

最新研究LLaVA-O1展现了视觉语言模型(Vision Language Models,简称LLM)在推理方面的重要进步。该技术通过让模型逐步处理信息,极大提升了语言模型在理解和分析视觉数据时的推理能力。LLaVA-O1模型结合了文本和图...

Read More
2024-07-16 talkingdev

LAPT自动化异常值检测:提高视觉语言模型的表现

近日,研究人员提出了一种新的方法——标签驱动的自动提示调整(LAPT),用于视觉语言模型如CLIP的异常值检测。这种新方法可以自动识别出数据集中的异常值,提高模型在处理各种情况时的灵活性和准确性。通过LAPT,可以更...

Read More
2024-07-15 talkingdev

MARS-基于全新视觉语言模型改进文生图技术

MARS是一种全新的文本到图像(T2I)生成框架,它引入了语义视觉-语言集成专家(SemVIE)的特征。这种新型框架的主要目标是改进现有的T2I生成技术,使其能更好地理解和处理复杂的视觉语言任务。借助SemVIE,MARS能够实现...

Read More
2024-07-12 talkingdev

论文:PaliGemma技术报告-基于SigLIP 和 Gemma 2B的强大视觉语言模型

PaliGemma是一款基于SigLIP和Gemma 2B的强大视觉语言模型。这份技术报告详细阐述了在构建PaliGemma过程中的架构选择和数据收集方面所做的决策。SigLIP和Gemma 2B的结合使得PaliGemma在视觉语言建模方面展现出卓越性...

Read More
  1. Prev Page
  2. 2
  3. 3
  4. 4
  5. Next Page