漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-09-28 talkingdev

Manas AI再获2600万美元种子扩展融资,霍夫曼与穆克吉联手打造AI药物发现新势力

由LinkedIn联合创始人里德·霍夫曼与普利策奖得主、癌症研究员悉达多·穆克吉共同创立的AI药物发现公司Manas AI,在完成1月2460万美元种子轮融资后,近日再获2600万美元种子扩展资金。这家总部位于纽约的AI原生药物研...

Read More
2025-08-31 talkingdev

Condor发布Cuzco RISC-V核心架构,将在Hot Chips 2025大会亮相

芯片设计领域迎来新动态——Andes Technology旗下子公司Condor Computing近日宣布,其自主研发的Cuzco RISC-V处理器核心将亮相2025年Hot Chips高性能芯片研讨会。作为一家专注于RISC-V架构IP授权的企业,Condor的商业...

Read More
2025-08-20 talkingdev

深度解析GPU架构:从SM到Tensor Core及网络互联技术

这篇技术文章系统性地剖析了现代GPU的核心架构,重点阐述了流式多处理器(SM)的组织结构、CUDA核心与Tensor核心的协同工作机制,以及多层次内存体系的优化策略。文章不仅对比了历代GPU产品的规格演进,更从芯片层面深...

Read More
2025-06-30 talkingdev

重温高德纳经典论文《过早优化是万恶之源》的时代意义

计算机科学先驱高德纳(Donald Knuth)在其1974年发表的论文《使用goto语句的结构化编程》中提出的"过早优化是万恶之源"观点,近期再度引发技术社区热议。这篇发表于probablydance.com的深度分析文章指出,尽管现代...

Read More
2025-06-27 talkingdev

[论文推荐]Meta FAIR团队突破:无需归一化层的Transformer模型通过Dynamic Tanh实现同等性能

Meta旗下FAIR研究团队在arXiv最新论文中提出重大架构革新,通过名为Dynamic Tanh(DyT)的逐元素操作替代传统归一化层,使Transformer模型在保持性能的同时摆脱了对归一化层的依赖。这种S型曲线模拟技术能够自然复现...

Read More
2025-04-18 talkingdev

[开源]DeepSpeed团队推出DeepCompile:基于torch compile的分布式训练加速方案

微软DeepSpeed团队在GitHub开源了DeepCompile项目,通过引入编译技术显著提升分布式训练性能。该项目针对训练过程中的瓶颈操作进行深度优化,采用改进版的torch compile实现算子融合与代码生成,实测可使关键操作获...

Read More
2025-04-17 talkingdev

Stable Diffusion在AMD GPU上实现性能优化

Stability AI与AMD近日宣布,双方已成功针对Radeon显卡及Ryzen AI处理器优化了多款Stable Diffusion模型。这一技术突破显著提升了AMD硬件平台在生成式AI工作负载下的运行效率,实测显示推理速度最高可提升40%。该优...

Read More
2024-11-19 talkingdev

Llama 3.1 405B模型在Cerebras AI加速器上实现高效率

近期,人工智能领域的进步再次迎来了一个重要的里程碑。Llama 3.1 405B,一个领先的大型语言模型,现在在Cerebras AI加速器上运行时,实现了每秒969个令牌的处理速度,这在业界是一个显著的性能提升。Cerebras Infer...

Read More
  1. 1
  2. 2
  3. 3
  4. Next Page