漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-05-01 talkingdev

Nvidia推出CUDA-checkpoint工具包:助力分布式训练大型AI模型

Nvidia最近发布了一个新的工具包,可以对CUDA状态进行检查点设置,以便于传输和重启。这一工具包在GitHub上公开,对于大型AI模型的分布式训练非常有用。CUDA状态的检查点设置可以在训练过程中保存模型的状态,以便在...

Read More
2024-04-09 talkingdev

用C/CUDA语言训练大型语言模型,无需依赖PyTorch

近期,Andrei Karpathy推出了一个名为llm.c的项目,该项目展示了如何使用C和CUDA编程语言来训练大型语言模型(LLM)。这一创新方法避免了对PyTorch等大型深度学习框架的依赖,尤其是其所需的250MB以上的资源。这种训...

Read More
2024-03-26 talkingdev

谷歌、英特尔和ARM联手挑战英伟达AI芯片霸主地位

由英特尔、谷歌、ARM、高通、三星等科技公司组成的统一加速(UXL)基金会,正在开发开源软件,旨在避免AI开发者受限于英伟达的专有技术。这一举措意味着,未来AI开发将有更多的选择,不必完全依赖英伟达的生态系统。...

Read More
2024-03-25 talkingdev

NVIDIA的CUDA构筑了难以逾越的竞争壁垒

NVIDIA公司通过控制GPU和CUDA平台,形成了其在市场上的独特优势。CUDA简化了开发者从NVIDIA硬件中获益的过程,这一优势的确立得益于NVIDIA在CUDA生态系统上多年的投资和数十亿美元的投入。尽管未来可能会有竞争者项...

Read More
2024-03-21 talkingdev

Trigon 库:用类似 Python 的方式编写 CUDA 内核

Trigon 是一个允许开发者以类似 Python 的方式编写 CUDA 内核的库,近期正逐渐获得关注。该库的 GitHub 仓库中包含了一系列难度逐步提升的谜题,旨在鼓励开发者学习和掌握这一工具。这些谜题不仅有助于新手快速上手...

Read More
2024-02-15 talkingdev

AMD芯片的CUDA端口已发布

ZLUDA是一款针对AMD芯片的CUDA端口,目前还处于alpha版,但已证明可以成功运行许多图形软件包,例如Blender。

Read More
2023-08-31 talkingdev

CUDA图表助力深度学习模型性能提升,加速Llama 2速度达2.3倍

近日,一篇深度解析如何使用PyTorch 2.0的torch.compile和Nvidia CUDA图表功能提升深度学习模型性能的文章引起了广泛关注。该文章详细介绍了借助CUDA图表在Llama 2上实现了2.3倍的速度提升。这对于对性能敏感的AI从...

Read More
  1. Prev Page
  2. Next Page