漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-05-21 talkingdev

微软Surface新设备挑战MacBook Air,性能领先

微软近日发布了全新Surface设备,旨在挑战苹果MacBook Air的市场地位。这款Surface设备搭载了高通的Snapdragon X Elite芯片,与苹果的顶级笔记本电脑相比,在性能测试中取得了领先。微软的Copilot Plus系列PC配备了...

Read More
2024-05-01 talkingdev

QUICK:加速LLM的新CUDA内核开源

QUICK是一套新的优化CUDA内核,通过解决内存问题,提升了大型语言模型的效率。这导致了NVIDIA GPU上的显著速度提升,使AI模型运行更快,效率更高。QUICK的出现,无疑为AI领域带来了新的可能性,通过优化内存处理方式...

Read More
2024-05-01 talkingdev

Nvidia推出CUDA-checkpoint工具包:助力分布式训练大型AI模型

Nvidia最近发布了一个新的工具包,可以对CUDA状态进行检查点设置,以便于传输和重启。这一工具包在GitHub上公开,对于大型AI模型的分布式训练非常有用。CUDA状态的检查点设置可以在训练过程中保存模型的状态,以便在...

Read More
2024-04-29 talkingdev

小巧智能家居平台的大能量:Home Assistant加入开放家居基金会

Home Assistant近日加入了开放家居基金会,这是一个旨在通过优先考虑隐私、选择和可持续性来对抗大科技公司影响的非营利组织。这一转变使得Home Assistant能在保持其核心开源原则的同时扩大其对消费者的吸引力。接下...

Read More
2024-04-27 talkingdev

英伟达斥资7亿美元收购AI负载管理初创公司Run:ai

英伟达近日宣布,将以约7亿美元的价格收购AI基础设施优化公司Run:ai,以增强其DGX云AI平台的性能,让客户能更好地管理他们的AI工作负载。此次收购将有助于支持跨多个数据中心位置的复杂AI部署。Run:ai此前曾获得风险...

Read More
2024-04-15 talkingdev

谷歌发布新一代AI芯片,挑战Nvidia、微软和亚马逊

谷歌宣布其最新的人工智能芯片Cloud TPU v5p现已问世。这款芯片的训练速度是前代TPU v4的近三倍,尤其在大型语言模型的训练上表现出色。这一发布进一步巩固了谷歌在AI硬件领域与其他竞争对手如Nvidia的竞争优势。同...

Read More
2024-04-08 talkingdev

MLPerf 基准测试新增大型生成型AI模型,Nvidia 系统性能超群

MLPerf 近日更新了其推理基准测试,新增了如 Llama 2 70B 和 Stable Diffusion XL 等大型语言模型,这一变化体现了整个行业对于大型生成型人工智能的转移。在最新测试中,Nvidia 的系统,尤其是搭载了 H200 处理器的...

Read More
2024-04-04 talkingdev

Worldcoin基金会开源Orb核心软件组件

Humanity.tools(Tools for Humanity)为Worldcoin Orb开发了一个安全且强大的计算环境,该环境采用NVIDIA Jetson进行处理,并使用Arm Cortex M4微控制器执行实时功能。Orb运行Rust应用程序,并使用NVIDIA的TensorRT...

Read More
2024-04-02 talkingdev

英伟达TensorRT更新,性能提升达28倍,Llama 2基准测试每秒处理1200个令牌

英伟达在其GitHub仓库Optimum-Nvidia中发布了TensorRT的最新更新,这一更新使得AI推理速度大幅提高,达到了比基线快28倍的速度。特别是在Llama 2的基准测试中,能够达到每秒处理1200个令牌的惊人速度。这一进步得益...

Read More
2024-03-26 talkingdev

Anyscale与NVIDIA合作 推动低延迟生成式AI模型在生产中的应用

Anyscale与NVIDIA最近宣布了一项新的合作伙伴关系,旨在帮助客户将生成式AI模型扩展到生产环境中。通过这次合作,客户可以将Ray与Anyscale的托管运行环境相结合,以提高资源管理、可观测性和自动扩缩容的能力。这项...

Read More
  1. Prev Page
  2. 3
  3. 4
  4. 5
  5. Next Page