Hugging Face平台最新发布的SIFT-50M(Speech Instruction Fine-Tuning)数据集,是一个包含5000万样本的大规模语音指令微调数据集,专为语音-文本大语言模型(LLMs)的指令微调和预训练而设计。该数据集基于公开可...
Read More谷歌研究院与加州大学团队在arXiv最新发表的论文提出3D CoCa框架,这一突破性技术通过整合视觉语言对比学习(Contrastive Learning)与场景描述(Captioning)两大前沿方向,实现了对三维场景的多模态联合理解。该框...
Read MoreGitHub最新开源的DeepMath数据集为人工智能领域带来突破性资源——该数据集包含10.3万道经过严格过滤和去污染的数学问题,专门用于提升大语言模型的逻辑推理能力。这一资源解决了当前数学推理训练数据质量参差不齐的核...
Read More当前大多数针对连续信号的生成模型由于计算限制,通常需要在潜在空间中进行操作。然而,这项研究引入了一系列级联结构,使得生成过程可以直接在像素空间中进行。这一创新不仅显著提升了生成效率,还消除了对预训练变...
Read MoreGitHub开源项目Object Counting提出了一种突破性的全自动零样本物体计数方法,该方法通过融合深度特征图与自注意力机制,在FSC147数据集上实现了当前最先进的计数精度。该技术的核心创新在于:1)利用预训练视觉模型...
Read More最新研究发现,当前广泛应用的CLIP(Contrastive Language-Image Pretraining)多模态模型存在严重的安全隐患。根据arXiv最新论文披露,攻击者通过数据投毒(poisoning)方式植入后门,仅需污染0.5%的训练数据即可实...
Read More加州大学圣克鲁兹分校视觉、语言与行为实验室(VLAA)在GitHub开源了MedReason项目,这是一个专为提升大语言模型(LLM)医疗推理能力构建的大规模数据集。该数据集通过结构化临床案例、医学知识图谱和多模态数据,旨...
Read More近期发表在arXiv上的研究论文提出了一种名为CellVTA的创新方法,该方法通过引入基于CNN的适配器模块,将高分辨率空间特征注入到基于视觉Transformer的模型中,显著提升了细胞实例分割的精度。这一技术突破在多个基准...
Read More