漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-05-04 talkingdev

用WebGPU构建免费的浏览器内Llama 3聊天机器人

最近,一位开发者使用WebGPU构建了一个免费的浏览器内Llama 3聊天机器人。Llama 3聊天机器人是一个人工智能聊天机器人,能够回答用户的问题,甚至能够进行基础的对话。与其他聊天机器人不同的是,Llama 3聊天机器人...

Read More
2024-05-02 talkingdev

GPU供应商Coreweave完成11亿美元融资,估值飙升至190亿美元

GPU供应商Coreweave近期完成了11亿美元的融资,使得该公司估值达到了惊人的190亿美元。Coreweave是一家专注于租赁超级集群的公司,为各种行业提供高性能计算解决方案。此次融资对于Coreweave的发展无疑是一大利好,...

Read More
2024-05-01 talkingdev

QUICK:加速LLM的新CUDA内核开源

QUICK是一套新的优化CUDA内核,通过解决内存问题,提升了大型语言模型的效率。这导致了NVIDIA GPU上的显著速度提升,使AI模型运行更快,效率更高。QUICK的出现,无疑为AI领域带来了新的可能性,通过优化内存处理方式...

Read More
2024-04-28 talkingdev

MaxText:谷歌开源高性能机器学习模型

MaxText是一个高性能、高可扩展性的开源低级机器学习模型(LLM),完全使用Python/Jax编写,目标是在Google Cloud的TPUs和GPUs上进行训练和推理。这个项目在GitHub上公开,充分展示了其强大的功能和优秀的性能。MaxTex...

Read More
2024-04-28 talkingdev

微软开源BitBLAS:优化1.58位网络内核

微软近日发布了一组用于训练BitNet风格模型的GPU加速内核。这些模型在准确度上没有明显下降的情况下,大大降低了内存消耗。BitNet风格模型是一种新型的深度学习模型,它的特点是使用1.58位的数据表示方法,比传统的3...

Read More
2024-04-28 talkingdev

tiny-gpu开源:一种基于Verilog的最小化GPU实现

近日,GitHub上发布了一个名为tiny-gpu的项目,这是一个基于Verilog实现的最小化GPU。该项目的主要优化方向是帮助用户从头开始学习GPU的工作原理。tiny-gpu尝试通过最简单的方式,将GPU的操作和结构进行模拟和实现,...

Read More
2024-04-24 talkingdev

WebGPU marching cubes:在浏览器中以原生速度运行的GPU计算

由于WebGPU标准的不断完善,现在可以在浏览器中进行高性能的GPU计算。最近,一组研究人员开发了一种基于WebGPU的算法,称为 'marching cubes',用于在浏览器中进行实时体积渲染。这项技术可以将三维图形数据转换为表...

Read More
2024-04-08 talkingdev

AMD 开源 Radeon GPU 固件以促进 AI 框架发展

AMD 宣布将开源其 Radeon GPU 的固件,这一决定意味着技术社区将能够快速改进人工智能框架,同时也可能提高 AMD 产品的市场接受度。开源固件将使得独立开发者和研究人员能够更深入地了解和修改 GPU 底层功能,从而推...

Read More
  1. Prev Page
  2. 15
  3. 16
  4. 17
  5. Next Page