来自arxiv的最新研究提出了一种名为Vision Banana的通用视觉模型,该模型的核心创新在于将传统的视觉感知任务重新表述为图像生成问题。通过指令微调(instruction-tuning)的图像生成模型,Vision Banana能够在多种...
Read More一项名为‘简单自蒸馏’(Simple Self-Distillation, SSD)的新方法为大语言模型的代码生成能力提升开辟了一条高效且成本低廉的路径。该方法的核心在于,仅利用模型自身在特定采样配置(如温度参数和截断策略)下生成...
Read MoreCohere的研究部门Cohere Labs近日正式发布了Tiny Aya系列开源模型,这是目前在其参数量级上性能最强的多语言开源模型。该系列包括基础模型TinyAya-Base(35亿参数)以及经过指令微调的TinyAya-Global和多个区域变体...
Read More近日,前沿开源实验室Moonshot AI正式发布其新一代Kimi K2思维模型,该模型采用混合专家架构,具备320亿激活参数与1万亿总参数的庞大规模。在技术性能方面,Kimi K2在前沿知识理解、数学推理及代码生成领域均达到当...
Read MoreBLIP3-o作为一种新型的扩散Transformer架构,通过序列预训练方法实现了技术突破,并在多模态基准测试中取得了当前最优异的成绩。该研究不仅发布了完整的代码和权重文件,还附带了一个包含6万条指令的微调数据集,为...
Read MoreHugging Face平台最新发布的SIFT-50M(Speech Instruction Fine-Tuning)数据集,是一个包含5000万样本的大规模语音指令微调数据集,专为语音-文本大语言模型(LLMs)的指令微调和预训练而设计。该数据集基于公开可...
Read More