漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-07-18 talkingdev

[论文推荐] 突破长文本限制:新型“Power”注意力机制实现高效训练

一项名为“Power”注意力的创新技术通过引入超参数p,实现了对状态大小的独立控制,有效解决了长上下文训练中计算成本平衡的难题。该机制在长序列任务中表现优于标准注意力,并支持定制GPU内核,在64k上下文长度下速度...

Read More
2025-06-20 talkingdev

LLM编译技术重大突破:单核化Megakernel实现低延迟推理

传统大型语言模型(LLM)系统普遍存在硬件利用率低下的问题,主要源于GPU内核的序列化启动及跨设备通信开销。一支研究团队创新性地开发出专用编译器,可将LLM推理过程自动编译为单一megakernel(超级内核),通过三大...

Read More
2025-05-27 talkingdev

基于WebGPU的浏览器粒子生命模拟实验

开发者利用WebGPU技术实现了浏览器端的粒子生命模拟系统,该项目通过GPU加速计算展示了复杂自组织行为的涌现现象。WebGPU作为下一代图形API标准,相比传统WebGL显著提升了并行计算能力,该项目验证了其在复杂系统模...

Read More
2025-05-05 talkingdev

[开源]TScale-基于消费级GPU的分布式训练框架

GitHub开源项目TScale提出了一种创新性的分布式训练解决方案,允许开发者在消费级GPU集群上高效运行大规模模型训练。该项目通过优化通信协议和资源调度算法,显著降低了分布式训练的硬件门槛,使中小型研究团队也能...

Read More
2025-05-03 talkingdev

开发者耗时两年打造基于3D物理引擎的合成器Anukari,开创GPU音频处理新范式

独立开发者历时两年多打造的Anukari 3D物理合成器近日正式发布,这款创新性音频工具成为首批采用GPU进行实时音频处理的虚拟乐器之一。项目创始人在开发者日志中透露,其物理模拟系统的GUI开发难度远超预期,甚至超过...

Read More
2025-04-26 talkingdev

[论文推荐] 无损压缩大模型:动态长度浮点技术实现70%体积缩减,GPU推理效率飞跃

来自arXiv的最新研究论文提出了一种名为DFloat11的动态长度浮点无损压缩框架,通过创新性地利用LLM权重中BFloat16格式的低熵特性,实现了30%的模型体积缩减,同时保持输出结果与原始模型的比特级一致性。该技术采用...

Read More
2025-04-24 talkingdev

DeepSeek-V3/R1多节点部署实现高吞吐与低延迟

最新研究表明,采用混合专家模型(MoE)架构的DeepSeek-V3/R1在多节点GPU部署中展现出显著性能优势。该模型通过创新的资源分配机制,在绝大多数应用场景下同步实现了更高吞吐量和更低延迟的双重突破。技术分析显示,...

Read More
2025-03-15 talkingdev

利用多GPU加速解密Akira勒索软件加密文件

近日,网络安全领域取得了一项重要突破,研究人员成功利用多GPU并行计算技术,加速解密被Akira勒索软件加密的文件。Akira勒索软件以其复杂的加密算法和高效的传播能力而闻名,给全球企业和个人用户带来了巨大的数据...

Read More
  1. 1
  2. 2
  3. 3
  4. Next Page