漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-05-04 talkingdev

GPUDeploy:为GPU提供类Airbnb共享服务

近日,gpudeploy.com推出了全新的GPU部署服务,该服务为用户提供了一种简单,快速的方式来部署和使用GPU。用户只需上传其模型和数据,gpudeploy.com即可为其提供简单易用的GPU计算资源,就像Airbnb为租房者提供房源...

Read More
2024-05-03 talkingdev

用WebGPU构建免费的浏览器内Llama 3聊天机器人

最近,一位开发者使用WebGPU构建了一个免费的浏览器内Llama 3聊天机器人。Llama 3聊天机器人是一个人工智能聊天机器人,能够回答用户的问题,甚至能够进行基础的对话。与其他聊天机器人不同的是,Llama 3聊天机器人...

Read More
2024-05-02 talkingdev

GPU供应商Coreweave完成11亿美元融资,估值飙升至190亿美元

GPU供应商Coreweave近期完成了11亿美元的融资,使得该公司估值达到了惊人的190亿美元。Coreweave是一家专注于租赁超级集群的公司,为各种行业提供高性能计算解决方案。此次融资对于Coreweave的发展无疑是一大利好,...

Read More
2024-05-01 talkingdev

QUICK:加速LLM的新CUDA内核开源

QUICK是一套新的优化CUDA内核,通过解决内存问题,提升了大型语言模型的效率。这导致了NVIDIA GPU上的显著速度提升,使AI模型运行更快,效率更高。QUICK的出现,无疑为AI领域带来了新的可能性,通过优化内存处理方式...

Read More
2024-04-28 talkingdev

MaxText:谷歌开源高性能机器学习模型

MaxText是一个高性能、高可扩展性的开源低级机器学习模型(LLM),完全使用Python/Jax编写,目标是在Google Cloud的TPUs和GPUs上进行训练和推理。这个项目在GitHub上公开,充分展示了其强大的功能和优秀的性能。MaxTex...

Read More
2024-04-28 talkingdev

微软开源BitBLAS:优化1.58位网络内核

微软近日发布了一组用于训练BitNet风格模型的GPU加速内核。这些模型在准确度上没有明显下降的情况下,大大降低了内存消耗。BitNet风格模型是一种新型的深度学习模型,它的特点是使用1.58位的数据表示方法,比传统的3...

Read More
2024-04-28 talkingdev

tiny-gpu开源:一种基于Verilog的最小化GPU实现

近日,GitHub上发布了一个名为tiny-gpu的项目,这是一个基于Verilog实现的最小化GPU。该项目的主要优化方向是帮助用户从头开始学习GPU的工作原理。tiny-gpu尝试通过最简单的方式,将GPU的操作和结构进行模拟和实现,...

Read More
2024-04-23 talkingdev

WebGPU marching cubes:在浏览器中以原生速度运行的GPU计算

由于WebGPU标准的不断完善,现在可以在浏览器中进行高性能的GPU计算。最近,一组研究人员开发了一种基于WebGPU的算法,称为 'marching cubes',用于在浏览器中进行实时体积渲染。这项技术可以将三维图形数据转换为表...

Read More
2024-04-08 talkingdev

AMD 开源 Radeon GPU 固件以促进 AI 框架发展

AMD 宣布将开源其 Radeon GPU 的固件,这一决定意味着技术社区将能够快速改进人工智能框架,同时也可能提高 AMD 产品的市场接受度。开源固件将使得独立开发者和研究人员能够更深入地了解和修改 GPU 底层功能,从而推...

Read More
2024-04-05 talkingdev

Lambda宣布5亿美元GPU云服务扩张计划

Lambda公司近日宣布,已获得5亿美元的特别债务融资,用于扩大其GPU云服务。此前,Lambda在年初已经完成了2.3亿美元的C轮融资。该扩张计划预计将进一步增强Lambda在GPU云计算市场的影响力,为客户提供更加强大的计算...

Read More
  1. Prev Page
  2. 5
  3. 6
  4. 7
  5. Next Page