漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-08-29 talkingdev

开源|oLLM:轻量级Python库实现消费级GPU运行100K上下文大模型

近日,GitHub上开源项目oLLM引发开发者社区广泛关注。该项目是一个专为大上下文语言模型推理设计的轻量级Python库,其核心突破在于仅需8GB显存的消费级GPU即可运行Llama-3.1-8B-Instruct等模型处理长达10万token的上...

Read More
2025-08-28 talkingdev

Cloudflare如何用更少GPU运行更多AI模型:Omni平台技术深探

Cloudflare近日公开了其内部AI模型部署平台Omni的技术细节,该平台通过轻量级隔离和内存超分配技术,实现在单个GPU上并行运行多个AI模型,显著提升边缘节点的计算资源利用率。Omni平台专为边缘计算环境设计,能够动...

Read More
2025-08-25 talkingdev

突破跨架构部署难题:Kernel-builder库实现生产级CUDA内核开发

近日,开源社区推出革命性工具库Kernel-builder,专门用于构建和部署跨硬件架构的自定义CUDA内核。该工具通过提供完整的开发框架,显著降低了高性能计算内核从开发到生产环境部署的技术门槛。根据技术文档介绍,开发...

Read More
2025-08-24 talkingdev

突破性进展:研究者用CUDA C++实现5090光速级Flash Attention算法

近日,一项名为《Writing Speed-of-Light Flash Attention for 5090 in CUDA C++》的技术研究引发广泛关注。该研究通过CUDA C++实现了针对5090硬件的光速级Flash Attention算法,显著提升了注意力机制的计算效率。Fl...

Read More
2025-08-21 talkingdev

开源|Luminal:基于搜索的开源GPU编译器,可自动为AI模型生成高性能内核

Luminal是由开发者Joe及其团队构建的一款创新型开源GPU编译器,专门针对AI模型自动生成高度优化的GPU内核。与传统机器学习库不同,Luminal采用搜索式编译方法:它将高级模型代码(如PyTorch格式)转换为底层GPU代码...

Read More
2025-08-20 talkingdev

深度解析GPU架构:从SM到Tensor Core及网络互联技术

这篇技术文章系统性地剖析了现代GPU的核心架构,重点阐述了流式多处理器(SM)的组织结构、CUDA核心与Tensor核心的协同工作机制,以及多层次内存体系的优化策略。文章不仅对比了历代GPU产品的规格演进,更从芯片层面深...

Read More
2025-08-20 talkingdev

开源|Lemonade:高性能本地大语言模型推理服务器

Lemonade是一个专为现代计算硬件优化的开源推理服务器,致力于帮助开发者和研究者在本地高效运行大型语言模型。该项目通过集成最先进的推理引擎,可自动适配不同厂商的NPU(神经网络处理器)和GPU硬件平台,实现计算...

Read More
2025-08-19 talkingdev

深度解析:NVIDIA GPU与TPU架构差异如何影响大语言模型训练

最新技术分析揭示了NVIDIA GPU和谷歌TPU在人工智能计算领域的架构本质差异。现代机器学习GPU本质上是由专精于矩阵乘法的计算核心集群与高速内存条构成的异构体系,而TPU则是纯粹为矩阵运算设计的专用加速器,具有成...

Read More
  1. Prev Page
  2. 3
  3. 4
  4. 5
  5. Next Page