Trigon 是一个允许开发者以类似 Python 的方式编写 CUDA 内核的库,近期正逐渐获得关注。该库的 GitHub 仓库中包含了一系列难度逐步提升的谜题,旨在鼓励开发者学习和掌握这一工具。这些谜题不仅有助于新手快速上手...
Read More随着人工智能模型的不断发展,越来越多的研究人员开始研究如何在不影响模型准确性的前提下,提高模型的计算效率和内存利用率。LLM量化是一种后训练量化技术,可以使像OPT和LLaMA2这样的大型语言模型更具内存和计算效...
Read More近期,人工智能研究的重点从单纯的准确性和广度转向了效率和深度。英伟达的H100销售和AI能源的不断增长凸显了该行业的规模。投资要求盈利,将研究重点转向了像Phi 2这样更小、更高效的模型,并强调从模型架构到部署...
Read More近日,一项研究探讨了如何通过采用参数更少的微型语言模型,使得强大的语言模型更适合移动设备。研究人员发现,相较于传统的大型语言模型,微型语言模型在保证语言表达能力的前提下,可以极大地减少模型参数,从而显...
Read MoreSegMamba是一种专为3D医学图像分割设计的模型,它提供了一种比Transformer架构更高效的替代方案。SegMamba采用全卷积神经网络架构,可以对3D医学图像进行有效的分割,尤其是在肿瘤分割方面表现出色。与传统的医学影...
Read More这项研究介绍了一种使用降阶建模压缩大型语言模型的方法,可以显著减少内存和时间限制,而无需高端硬件。由于大型语言模型在自然语言处理中的应用越来越广泛,因此压缩这些模型以提高计算效率变得尤为重要。研究人员...
Read More研究人员开发出BitNet,这是一种新的大型语言模型设计,使用更少的能量和内存。BitNet使用一种新的技术来平衡模型的准确性和计算效率,同时减少了对大量数据的依赖。这一新设计的目的是为了降低大型语言模型的计算成...
Read More近日,一篇深度解析如何使用PyTorch 2.0的torch.compile和Nvidia CUDA图表功能提升深度学习模型性能的文章引起了广泛关注。该文章详细介绍了借助CUDA图表在Llama 2上实现了2.3倍的速度提升。这对于对性能敏感的AI从...
Read More最新研究中,科研人员引入了一种名为‘聚焦线性注意力’的新方法,使变压器(Transformers)变得更为高效和强大。研究人员设计了新的映射函数和秩恢复模块,旨在在保持计算需求较低的同时,提升模型的性能。这一突破性...
Read More