腾讯ARC实验室最新发布的SEED-Bench-R1基准测试,为多模态大语言模型(MLLM)在复杂视频任务中的表现提供了系统评估框架。该研究重点关注强化学习(RL)和监督微调(SFT)等后训练方法,揭示了RL在视觉感知任务和数...
Read More最新发表在arXiv的论文提出了一种创新的模型融合技术,能够从大型语言模型(LLM)中精准移除敏感内容,同时保持模型的通用知识能力。这项突破性研究通过参数空间分析,识别并分离与敏感信息相关的神经网络连接,实现了...
Read More传统检索增强生成(RAG)系统采用语义搜索+文档生成的二阶段流程,虽能实现基础问答,但存在上下文理解浅层化和无关信息干扰的缺陷。GitHub最新开源的ReAG(Reasoning Augmented Generation)通过革命性的一体化架构...
Read More随着人工智能技术的飞速发展,大型语言模型(LLM)的复杂性和能力不断提升,但其内部决策过程仍被视为“黑箱”。近日,研究人员通过先进的追踪技术,成功揭示了LLM在生成文本时的思维路径。这一突破不仅有助于提升模型...
Read MoreModel Context Protocol(MCP)是一种为大型语言模型提供工具和上下文的方式。它是一个开放协议,提供标准化的方法来连接AI模型与不同的数据源和工具。现在,OpenAI的Agents SDK已经支持MCP,这使得开发者可以使用广...
Read MoreMidjourney近期发布了一项重要工作,旨在提升创意写作模型的多样性表现。该团队通过对一个较小的7B模型进行后训练,使其在创意写作任务中的表现超越了更大规模的开放和封闭模型。这一突破不仅展示了模型优化技术的潜...
Read More近日,Qwen团队发布了一款名为Qwen 2.5 32B的视觉语言模型,该模型不仅具备强大的多模态处理能力,而且完全开源,能够在消费级硬件上高效运行。这一重大突破为AI领域的研究者和开发者提供了更加灵活和便捷的工具,尤...
Read MoreLLaVA-MORE 是一项关于多模态大语言模型(Multimodal Large Language Models, MLLMs)的系统性研究,旨在评估不同语言模型和视觉骨干网络在 MLLMs 中的表现,并提供一个可复现的框架来比较这些架构。通过该研究,研...
Read More