Tile Language是一种简洁的领域特定语言(DSL),旨在简化和优化高性能GPU/CPU内核(如GEMM、Dequant GEMM、FlashAttention和LinearAttention)的开发流程。该语言采用类似Python的语法,并基于TVM(Tensor Virtual...
Read More当前大多数针对连续信号的生成模型由于计算限制,通常需要在潜在空间中进行操作。然而,这项研究引入了一系列级联结构,使得生成过程可以直接在像素空间中进行。这一创新不仅显著提升了生成效率,还消除了对预训练变...
Read MoreMcGill-NLP实验室推出的Nano Aha Moment项目在GitHub开源,该项目通过极简架构实现高性能深度学习训练——仅需单个文件和一块GPU即可完成从零开始的完整参数调优,并复现了DeepSeek R1-Zero模型的训练范式。这一突破性...
Read More近期,GitHub上开源了一个名为CrystalFormer的Transformer模型,该模型利用空间群对称性生成晶体结构,显著提高了晶体生成的效率和数据友好性。晶体结构在材料科学、化学和物理学等领域具有重要应用,传统方法通常依...
Read More机器学习作为人工智能的核心技术之一,近年来在学术界和工业界均取得了显著进展。本文从理论基础出发,系统性地介绍了机器学习的核心概念、算法分类及实际应用场景。监督学习、无监督学习和强化学习三大范式构成了机...
Read MoreNebius近日开源了Kvax项目,这是一个基于JAX框架的Flash Attention实现,专门针对长上下文训练场景进行了优化。Kvax通过创新的上下文并行技术和高效的文档掩码计算,实现了更快的训练速度和更高的数据密度压缩,在性...
Read MoreGeometry Crafter 是一种前沿的几何估计模型,它创新性地利用视频扩散作为先验信息,实现了时间维度上的一致性几何估计。该技术能够以约1.5帧/秒的速度完成完整点云估计,同时具备精确的相机姿态估计能力。这一突破...
Read More近期发表在arXiv上的研究论文提出了一种名为CellVTA的创新方法,该方法通过引入基于CNN的适配器模块,将高分辨率空间特征注入到基于视觉Transformer的模型中,显著提升了细胞实例分割的精度。这一技术突破在多个基准...
Read More