漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-08-24 talkingdev

突破性进展:研究者用CUDA C++实现5090光速级Flash Attention算法

近日,一项名为《Writing Speed-of-Light Flash Attention for 5090 in CUDA C++》的技术研究引发广泛关注。该研究通过CUDA C++实现了针对5090硬件的光速级Flash Attention算法,显著提升了注意力机制的计算效率。Fl...

Read More
2025-08-21 talkingdev

开源|Luminal:基于搜索的开源GPU编译器,可自动为AI模型生成高性能内核

Luminal是由开发者Joe及其团队构建的一款创新型开源GPU编译器,专门针对AI模型自动生成高度优化的GPU内核。与传统机器学习库不同,Luminal采用搜索式编译方法:它将高级模型代码(如PyTorch格式)转换为底层GPU代码...

Read More
2025-08-20 talkingdev

深度解析GPU架构:从SM到Tensor Core及网络互联技术

这篇技术文章系统性地剖析了现代GPU的核心架构,重点阐述了流式多处理器(SM)的组织结构、CUDA核心与Tensor核心的协同工作机制,以及多层次内存体系的优化策略。文章不仅对比了历代GPU产品的规格演进,更从芯片层面深...

Read More
2025-08-20 talkingdev

开源|Lemonade:高性能本地大语言模型推理服务器

Lemonade是一个专为现代计算硬件优化的开源推理服务器,致力于帮助开发者和研究者在本地高效运行大型语言模型。该项目通过集成最先进的推理引擎,可自动适配不同厂商的NPU(神经网络处理器)和GPU硬件平台,实现计算...

Read More
2025-08-19 talkingdev

深度解析:NVIDIA GPU与TPU架构差异如何影响大语言模型训练

最新技术分析揭示了NVIDIA GPU和谷歌TPU在人工智能计算领域的架构本质差异。现代机器学习GPU本质上是由专精于矩阵乘法的计算核心集群与高速内存条构成的异构体系,而TPU则是纯粹为矩阵运算设计的专用加速器,具有成...

Read More
2025-08-18 talkingdev

Qwen3-Embedding-0.6B模型实现百万级文本高效嵌入,GPU利用率近100%

近日,Qwen3-Embedding-0.6B模型在文本嵌入领域取得重大突破,能够高效处理百万级文本数据,并实现接近100%的GPU利用率。该技术流程包括从S3读取文档、使用spaCy进行句子分块、利用Qwen3生成嵌入向量,并将结果写入t...

Read More
2025-08-18 talkingdev

独立开发者仅用两个月构建含30亿神经嵌入的搜索引擎

一位独立开发者在短短两个月内,利用200块GPU构建了一个完整的网络搜索引擎,该引擎生成了30亿个神经嵌入,覆盖了2.8亿个索引页面。该项目采用了基于Transformer的嵌入技术,相比传统的关键词匹配方法,这一技术显著...

Read More
2025-08-14 talkingdev

苹果开源Embedding Atlas:交互式大模型嵌入可视化工具

苹果公司近日在GitHub开源了Embedding Atlas项目,这是一款专为大规模嵌入数据设计的交互式可视化工具。该工具通过WebGPU加速实现高性能渲染,支持自动数据聚类标注、实时交叉筛选和元数据搜索三大核心功能。其技术...

Read More
  1. Prev Page
  2. 4
  3. 5
  4. 6
  5. Next Page