Video Self-Training with augmented Reasoning (Video-STaR)是一种新的方法,用于改进大型视觉语言模型(LVLMs)。通过自我训练和增强推理,Video-STaR能够提高模型的学习能力和预测准确性。这种方法的主要优势在于...
Read MoreLLaRA是一个使用大型语言模型(LLM)来通过对话式的指令-响应对提高机器人行动政策的框架。通过整合视觉输入,这些视觉语言模型(VLM)处理状态信息并生成最优的政策决策。LLM的使用增强了机器人的理解和应对能力,...
Read More视觉启用的语言模型(VLMs)如GPT-4o和Gemini,能够赋予自主代理人完成诸如进行购物或编辑代码等任务的能力。然而,这项工作也突出了这些代理人易受到恶意攻击的脆弱性。在现实世界中,我们必须对这些具有视觉理解能...
Read More微软最近发布了一套名为Florence-2的MIT许可的小型视觉语言模型(VLMs)。这套模型在图像标注、边界识别和分类等任务上,表现出色,大大超过了许多体型更大的模型。Florence-2模型的发布,标志着微软在人工智能和机...
Read MoreCARES是一个全面的评估框架,用于评估医疗大视觉语言模型(Med-LVLMs)的可信度。该框架的目标是确保这些模型能够在医疗环境中提供可靠且准确的结果。就像其他的人工智能模型一样,医疗大视觉语言模型的可信度是其成...
Read MoreTogether AI团队发布了一款名为DragonFly Vision的全新视觉语言模型(VLM)。该模型因其高效的架构在处理极高分辨率图像方面表现卓越。DragonFly Vision采用了一系列先进的技术,包括深度学习和神经网络优化,从而实...
Read More近日,一个名为Meteor的新型高效大规模语言和视觉模型项目在GitHub上发布。Meteor模型通过引入多维度推理机制,大幅提升了理解和回答复杂问题的能力。该模型的设计旨在解决现有视觉语言模型在处理复杂场景时的局限性...
Read MoreDeepSeek-VL 是一个专注于现实世界应用的全新开源视觉语言模型。该模型特别针对多样化的数据进行了优化,包括来自网页截图、图表以及 OCR(光学字符识别)数据的处理。DeepSeek-VL 的设计目标是提高在复杂和多样化数...
Read More