Nous Research近期推出的Psyche网络是一个基于Solana区块链的分布式训练系统,该系统允许拥有兼容硬件的用户自愿贡献其GPU资源用于AI模型训练。该项目的首个计划"Consilience"旨在利用20万亿个token训练一个拥有400...
Read MoreFreepik近日发布了名为F Lite的AI图像生成模型,该模型是与Fal.ai合作开发,并利用64块Nvidia H100 GPU进行训练。F Lite的独特之处在于其训练数据全部来自经过授权的、适合工作场景的图像,确保了生成内容的合法性和...
Read MoreGitHub开源项目TScale提出了一种创新性的分布式训练解决方案,允许开发者在消费级GPU集群上高效运行大规模模型训练。该项目通过优化通信协议和资源调度算法,显著降低了分布式训练的硬件门槛,使中小型研究团队也能...
Read More独立开发者历时两年多打造的Anukari 3D物理合成器近日正式发布,这款创新性音频工具成为首批采用GPU进行实时音频处理的虚拟乐器之一。项目创始人在开发者日志中透露,其物理模拟系统的GUI开发难度远超预期,甚至超过...
Read More来自arXiv的最新研究论文提出了一种名为DFloat11的动态长度浮点无损压缩框架,通过创新性地利用LLM权重中BFloat16格式的低熵特性,实现了30%的模型体积缩减,同时保持输出结果与原始模型的比特级一致性。该技术采用...
Read More最新研究表明,采用混合专家模型(MoE)架构的DeepSeek-V3/R1在多节点GPU部署中展现出显著性能优势。该模型通过创新的资源分配机制,在绝大多数应用场景下同步实现了更高吞吐量和更低延迟的双重突破。技术分析显示,...
Read MoreStability AI与AMD近日宣布,双方已成功针对Radeon显卡及Ryzen AI处理器优化了多款Stable Diffusion模型。这一技术突破显著提升了AMD硬件平台在生成式AI工作负载下的运行效率,实测显示推理速度最高可提升40%。该优...
Read MoreTile Language是一种简洁的领域特定语言(DSL),旨在简化和优化高性能GPU/CPU内核(如GEMM、Dequant GEMM、FlashAttention和LinearAttention)的开发流程。该语言采用类似Python的语法,并基于TVM(Tensor Virtual...
Read More