近期,OpenAI、微软和Meta等领先的人工智能公司正在通过“蒸馏”技术,利用大型语言模型(LLM)作为“教师”来训练更小的系统,从而创建更具成本效益的AI模型。这种技术通过将复杂模型的知识“蒸馏”到更轻量级的模型中,...
Read MoreLuma首席科学家宋嘉明,作为最早为扩散模型开发加速算法的先驱,近日发布了新的多模态预训练方法——Inductive Moment Matching(IMM)。这一新方法不仅超越了传统扩散模型在样本质量上的表现,还实现了10倍以上的效率...
Read MoreDeepMind近日发布了一篇详细介绍DiLoCo跨数据中心训练算法扩展定律的论文。DiLoCo是一种强大的训练算法,能够在全球范围内同步梯度,确保模型训练的稳定性。该算法通过在多个数据中心之间进行分布式训练,有效提升了...
Read MoreOpen Sora项目自模型首次发布以来,一直在积极推进,并以低于20万美元的成本训练出了一个具有竞争力的模型。此次,项目团队全面公开了所有代码和模型权重,旨在帮助研究人员和开发者复现其实验结果。尽管模型的动态...
Read More在计算机视觉和图形学领域,生成角色的中间帧运动一直是一个具有挑战性的任务,尤其是当涉及个性化角色的动画生成时。传统的动画生成方法需要针对特定角色进行数据收集和模型训练,而新项目AnyMoLe通过引入视频扩散...
Read More近日,GitHub上发布了一款名为Smalldiffusion的开源工具包,专为扩散模型的训练与采样设计。该工具包以轻量、高效和易读性为核心特点,旨在为研究人员和开发者提供一个简洁且高性能的解决方案。Smalldiffusion不仅优...
Read More近日,一个百万规模的文本到视频生成数据集正式发布,该数据集旨在为AI模型的训练提供丰富的视频素材,同时尽量减少与现有视频数据集的重叠。该数据集通过YouTube创作者官方API收集,所有视频均采用CC许可,涵盖了用...
Read More近日,分布式计算公司Prime Intellect宣布成功完成1500万美元的融资。此次融资将用于进一步推动其分布式训练方案的发展。Prime Intellect致力于通过分布式计算技术优化大规模数据处理和模型训练的效率,其独特的分布...
Read More