漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-04-18 talkingdev

[开源]DeepSpeed团队推出DeepCompile:基于torch compile的分布式训练加速方案

微软DeepSpeed团队在GitHub开源了DeepCompile项目,通过引入编译技术显著提升分布式训练性能。该项目针对训练过程中的瓶颈操作进行深度优化,采用改进版的torch compile实现算子融合与代码生成,实测可使关键操作获...

Read More
2025-04-18 talkingdev

REPA-E实现VAE与潜在扩散模型的端到端联合训练

近日,一项名为REPA-E的技术突破引发了机器学习领域的广泛关注。该技术通过创新的表示对齐损失函数,首次实现了变分自编码器(VAE)与潜在扩散模型的稳定联合训练。这种端到端的训练方法在ImageNet数据集上取得了当前...

Read More
2025-04-18 talkingdev

Cobra框架:高效线稿上色技术实现精准色彩填充

近期,一项名为Cobra的创新性线稿上色技术框架引发行业关注。该技术通过构建高效的长上下文细粒度ID保留架构,为漫画线稿上色提供了高精度、高效率且灵活易用的解决方案。其核心突破在于能够有效整合广泛的上下文参...

Read More
2025-04-17 talkingdev

[开源]Tile Language:专为高性能GPU/CPU内核开发设计的领域特定语言

Tile Language是一种简洁的领域特定语言(DSL),旨在简化和优化高性能GPU/CPU内核(如GEMM、Dequant GEMM、FlashAttention和LinearAttention)的开发流程。该语言采用类似Python的语法,并基于TVM(Tensor Virtual...

Read More
2025-04-17 talkingdev

[开源]Prima CPP:低内存环境下运行大模型的创新方案

Prima CPP是llama.cpp的一个扩展项目,旨在通过内存映射(mmaping)技术,使大型模型能够在低内存环境中高效运行。这一技术突破为资源受限的设备部署先进AI模型提供了可能,尤其适用于边缘计算和移动端场景。通过优...

Read More
2025-04-17 talkingdev

[开源]DeepMath数据集:10.3万道高纯度数学题助力推理模型训练

GitHub最新开源的DeepMath数据集为人工智能领域带来突破性资源——该数据集包含10.3万道经过严格过滤和去污染的数学问题,专门用于提升大语言模型的逻辑推理能力。这一资源解决了当前数学推理训练数据质量参差不齐的核...

Read More
2025-04-16 talkingdev

[开源]Auto Deploy (GitHub Repo):NVIDIA推出PyTorch和Hugging Face模型高效部署新方案

NVIDIA在GitHub开源项目TensorRT-LLM中发布了名为Auto Deploy的创新工具,该技术实现了将PyTorch和Hugging Face模型转化为高效可部署格式的重大突破。通过TensorRT-LLM的优化编译器,模型推理速度可提升数倍,特别适...

Read More
2025-04-16 talkingdev

[开源]OpenAI开源其FP4与MoE核心算子至Triton语言项目

OpenAI近日将其内部研发的高性能计算核心——FP4(4-bit浮点)与MoE(混合专家)系统的关键算子通过GitHub PR开源至Triton语言项目。这一举动标志着AI基础设施领域的重要进展:FP4作为新兴的低精度计算格式可显著提升...

Read More
  1. 1
  2. 2
  3. 3
  4. Next Page