漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2026-04-30 talkingdev

DeepSpeed整合AutoSP:自动序列并行技术,轻松训练超长上下文LLM

PyTorch官方博客近日发布了一项名为AutoSP的创新技术,该技术旨在自动化地将标准Transformer训练代码转换为序列并行代码,用于长上下文大语言模型(LLM)的训练。AutoSP已与微软的DeepSpeed框架深度集成,使得开发者...

Read More
2026-04-29 talkingdev

NVIDIA发布Nemotron 3 Nano Omni:多模态AI新突破,长上下文处理能力引领文档、音频与视频智能分析

NVIDIA日前发布了名为Nemotron 3 Nano Omni的全新多模态模型,标志着其在长上下文多模态智能领域的重要进展。该模型专为文档、音频和视频分析设计,在MMlongbench-Doc和VoiceBench等多个权威基准测试中均取得了业界...

Read More
2026-04-21 talkingdev

开源|Soul Player C64:在1MHz的Commodore 64上运行的真实Transformer模型

近日,GitHub上一个名为‘soulplayer-c64’的开源项目引发了技术社区的广泛关注。该项目成功地在仅有1MHz主频、内存极其有限的经典计算机Commodore 64上,部署并运行了一个拥有25,000个参数的真实Transformer神经网络...

Read More
2026-04-17 talkingdev

开源|MLX-LM引入新工具:让Transformer模型移植与代码审查更高效

近日,开源社区推出一项旨在提升AI模型移植与代码审查效率的新工具——Skill and Test Harness。该工具专为将Transformer模型移植至苹果MLX框架(mlx-lm)而设计,通过自动化处理模型转换任务,显著降低了开发者的贡献...

Read More
2026-04-14 talkingdev

论文推荐|DeepMind提出弹性循环Transformer:参数锐减4倍,视觉生成质量依然顶尖

DeepMind的研究团队近日在arXiv上发布了一项名为“弹性循环Transformer”的创新工作,为视觉生成模型领域带来了显著的效率突破。传统视觉生成模型通常依赖堆叠大量独立的Transformer层,导致参数量庞大。ELT的核心创新...

Read More
2026-04-02 talkingdev

OpenMed突破:仅165美元训练覆盖25个物种的mRNA语言模型,CodnRoBERTa性能显著领先

近日,OpenMed团队在Hugging Face平台发布了一项重要成果,展示了其构建的端到端蛋白质AI全流程。该流程涵盖了蛋白质结构预测、序列设计以及关键的密码子优化环节。研究团队对多种Transformer架构进行了深入的密码子...

Read More
2026-03-18 talkingdev

开源|MoDA:硬件感知的高效混合深度注意力机制实现

近日,GitHub上开源了一个名为MoDA的项目,它实现了一种创新的注意力机制——混合深度注意力。该机制的核心突破在于,允许注意力头同时访问当前层以及更早层的键值对。这一设计旨在解决随着模型深度增加,信息在传递过...

Read More
2026-03-16 talkingdev

突破性研究:Transformer能否成为通用计算机?Percepta展示在模型内部执行C程序

人工智能研究机构Percepta近期发布了一项前沿研究成果,探讨了大型语言模型(LLMs)作为通用计算设备的可能性。该研究成功在Transformer架构内部构建了一个“计算机”,能够高效执行任意的C语言程序,并运行数百万个计...

Read More
  1. 1
  2. 2
  3. 3
  4. Next Page