漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-09-08 talkingdev

分布式GPU运行时竞赛:英伟达与AMD角逐数据中心新战场

随着数据规模呈指数级增长,单GPU服务器的内存与显存容量已无法满足超大规模AI与数据分析需求。行业巨头英伟达与AMD正竞相攻克集群级数据调度技术壁垒,旨在通过软件生态构建竞争优势。初创公司Voltron Data推出的Th...

Read More
2025-08-05 talkingdev

开源|Dependency Cruiser:可视化与验证JavaScript/TypeScript依赖关系的利器

Dependency Cruiser 是一款专为 JavaScript、TypeScript 及相关项目设计的依赖关系验证与可视化工具,其核心功能在于允许开发者自定义规则来检测项目中的依赖关系是否符合预期。该工具不仅能以文本或图形化方式标识...

Read More
2025-07-27 talkingdev

AMD Zen 5处理器测试结果曝光,性能表现引热议

近日,AMD Zen 5处理器的测试结果在技术论坛和社区引发广泛关注。根据Agner论坛发布的测试数据,Zen 5在多项性能指标上展现出显著提升,吸引了217个社区点赞和41条评论。作为AMD下一代处理器架构,Zen 5的测试结果不...

Read More
2025-06-27 talkingdev

谷歌发布多模态开源模型Gemma 3n:支持文本、图像和音频输入

谷歌近日发布了具有重大意义的新开源权重模型Gemma 3n,该模型采用多模态设计,专为设备端优化。Gemma 3n能够接受文本、图像和音频作为输入,展现了强大的跨模态处理能力。为推广该模型,谷歌与AMD、Axolotl、Docker...

Read More
2025-06-25 talkingdev

GPU基础知识科普:从核心原理到应用场景

近日一篇关于GPU基础知识的科普文章在技术社区引发广泛讨论,该文章系统梳理了图形处理单元的核心技术原理和发展历程。作为现代计算的核心组件,GPU最初专为图形渲染设计,现已广泛应用于深度学习、科学计算等领域。...

Read More
2025-06-11 talkingdev

[论文推荐]上海研究团队推出DiTorch与DiComm框架,实现异构芯片集群高效训练百亿级AI模型

上海科研团队最新发布的DiTorch和DiComm技术框架,突破了AI训练对同构硬件的依赖。该创新通过统一编程接口整合NVIDIA、AMD等异构芯片架构,在1,024块规格差异显著的芯片集群上训练千亿参数模型时实现116%的超线性效...

Read More
2025-04-17 talkingdev

Stable Diffusion在AMD GPU上实现性能优化

Stability AI与AMD近日宣布,双方已成功针对Radeon显卡及Ryzen AI处理器优化了多款Stable Diffusion模型。这一技术突破显著提升了AMD硬件平台在生成式AI工作负载下的运行效率,实测显示推理速度最高可提升40%。该优...

Read More
2024-12-25 talkingdev

AMD GPU优化助力大型语言模型推理性能

2023年,AMD针对其图形处理单元(GPU)进行了优化,以增强其在大型语言模型(LLM)推理任务中的竞争力。这项优化涉及到硬件和软件层面的协同工作,使得AMD的GPU在处理复杂的机器学习任务时能提供更好的性能和效率。...

Read More
  1. 1
  2. 2
  3. 3
  4. Next Page