漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-07-16 talkingdev

KDE的Android TV替代方案Plasma Bigscreen重生,UI全面升级

KDE社区宣布其电视操作系统项目Plasma Bigscreen在沉寂多时后迎来重大更新,新版界面全面重构,优化了整体Shell层的用户体验。作为开源生态中罕见的电视端解决方案,该项目采用Qt框架开发,支持硬件加速解码和语音交...

Read More
2025-06-30 talkingdev

PyTorch与vLLM深化集成,提升大语言模型推理效率

PyTorch与vLLM近日宣布深化技术整合,新增支持量化、注意力机制定制及异构硬件加速等关键功能。这一合作标志着两大开源框架在优化大语言模型(LLM)推理性能方面取得重要突破:量化技术可降低模型计算资源消耗达4-8...

Read More
2025-06-25 talkingdev

GPU基础知识科普:从核心原理到应用场景

近日一篇关于GPU基础知识的科普文章在技术社区引发广泛讨论,该文章系统梳理了图形处理单元的核心技术原理和发展历程。作为现代计算的核心组件,GPU最初专为图形渲染设计,现已广泛应用于深度学习、科学计算等领域。...

Read More
2025-04-17 talkingdev

Stable Diffusion在AMD GPU上实现性能优化

Stability AI与AMD近日宣布,双方已成功针对Radeon显卡及Ryzen AI处理器优化了多款Stable Diffusion模型。这一技术突破显著提升了AMD硬件平台在生成式AI工作负载下的运行效率,实测显示推理速度最高可提升40%。该优...

Read More
2024-11-19 talkingdev

Llama 3.1 405B模型在Cerebras AI加速器上实现高效率

近期,人工智能领域的进步再次迎来了一个重要的里程碑。Llama 3.1 405B,一个领先的大型语言模型,现在在Cerebras AI加速器上运行时,实现了每秒969个令牌的处理速度,这在业界是一个显著的性能提升。Cerebras Infer...

Read More
2024-03-18 talkingdev

AMD GPU上的多节点大型语言模型训练解析

本文详细介绍了Lamini公司在AMD GPU上进行大型语言模型训练的技术架构。这包括了他们所使用的调度程序、模型训练技术以及其他相关技术细节。Lamini的技术团队选择了AMD GPU作为硬件加速平台,以优化模型训练的性能和...

Read More
2023-10-05 talkingdev

深度解析:在Jax中运行SDXL与TPU v5的协同作用

SDXL是一种最先进的图像生成模型,虽然强大,但运行速度较慢。然而,Google与HuggingFace最近在Google的研究语言Jax中展示了它在新型TPU芯片上的运行速度。通过这种新的硬件加速,SDXL的性能得到了极大的提升,可以...

Read More