PyTorch官方博客近日发布了一项名为AutoSP的创新技术,该技术旨在自动化地将标准Transformer训练代码转换为序列并行代码,用于长上下文大语言模型(LLM)的训练。AutoSP已与微软的DeepSpeed框架深度集成,使得开发者...
Read MoreNVIDIA日前发布了名为Nemotron 3 Nano Omni的全新多模态模型,标志着其在长上下文多模态智能领域的重要进展。该模型专为文档、音频和视频分析设计,在MMlongbench-Doc和VoiceBench等多个权威基准测试中均取得了业界...
Read More近日,GitHub上一个名为‘soulplayer-c64’的开源项目引发了技术社区的广泛关注。该项目成功地在仅有1MHz主频、内存极其有限的经典计算机Commodore 64上,部署并运行了一个拥有25,000个参数的真实Transformer神经网络...
Read More近日,开源社区推出一项旨在提升AI模型移植与代码审查效率的新工具——Skill and Test Harness。该工具专为将Transformer模型移植至苹果MLX框架(mlx-lm)而设计,通过自动化处理模型转换任务,显著降低了开发者的贡献...
Read MoreDeepMind的研究团队近日在arXiv上发布了一项名为“弹性循环Transformer”的创新工作,为视觉生成模型领域带来了显著的效率突破。传统视觉生成模型通常依赖堆叠大量独立的Transformer层,导致参数量庞大。ELT的核心创新...
Read More近日,OpenMed团队在Hugging Face平台发布了一项重要成果,展示了其构建的端到端蛋白质AI全流程。该流程涵盖了蛋白质结构预测、序列设计以及关键的密码子优化环节。研究团队对多种Transformer架构进行了深入的密码子...
Read More近日,GitHub上开源了一个名为MoDA的项目,它实现了一种创新的注意力机制——混合深度注意力。该机制的核心突破在于,允许注意力头同时访问当前层以及更早层的键值对。这一设计旨在解决随着模型深度增加,信息在传递过...
Read More人工智能研究机构Percepta近期发布了一项前沿研究成果,探讨了大型语言模型(LLMs)作为通用计算设备的可能性。该研究成功在Transformer架构内部构建了一个“计算机”,能够高效执行任意的C语言程序,并运行数百万个计...
Read More