漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-05-22 talkingdev

谷歌推出Gemini Diffusion:首个采用扩散模型替代Transformer的大语言模型

谷歌最新发布的Gemini Diffusion标志着大语言模型架构的重大突破,这是该公司首次采用扩散模型(Diffusion Model)完全替代传统的Transformer架构。技术文档显示,该模型在保持与Gemini 2.0 Flash-Lite相当性能表现...

Read More
2025-05-16 talkingdev

开源OpenThinkIMG:视觉语言模型推理与分布式部署工具库

OpenThinkIMG项目为视觉语言模型(VLMs)提供了革命性的视觉工具调用框架,其核心技术突破体现在三个方面:首先,通过动态推理机制实现多工具链式调用,使AI能根据图像内容自主选择处理工具;其次,创新的V-ToolRL强化...

Read More
2025-05-16 talkingdev

Meta FAIR团队发布支持分子属性预测、扩散建模和语言学习神经科学的新数据集与模型

Meta旗下FAIR(基础人工智能研究)团队近日宣布推出多项重要开源成果,涵盖三大前沿领域:1) 分子属性预测数据集与模型,将加速药物发现与材料科学研发流程;2) 扩散模型(Diffusion Models)相关资源,为当前最热门...

Read More
2025-05-07 talkingdev

DDT开源:解耦扩散Transformer

近日,GitHub上开源了一个名为DDT(Decoupled Diffusion Transformer)的项目,该项目实现了一种结合Transformer和扩散模型的新型架构。该架构采用Encoder-Decoder设计,其中Decoder部分由扩散模型构成。初步实验表...

Read More
2025-05-05 talkingdev

基于注意力蒸馏的扩散模型图像风格化方法取得新突破

近日,一项名为'Attention Distillation for Diffusion-Based Image Stylization'的技术在图像生成领域取得重要进展。该技术通过利用预训练扩散模型中的自注意力特征,创新性地引入了注意力蒸馏损失函数,有效优化了...

Read More
2025-04-18 talkingdev

REPA-E实现VAE与潜在扩散模型的端到端联合训练

近日,一项名为REPA-E的技术突破引发了机器学习领域的广泛关注。该技术通过创新的表示对齐损失函数,首次实现了变分自编码器(VAE)与潜在扩散模型的稳定联合训练。这种端到端的训练方法在ImageNet数据集上取得了当前...

Read More
2025-04-17 talkingdev

Stable Diffusion在AMD GPU上实现性能优化

Stability AI与AMD近日宣布,双方已成功针对Radeon显卡及Ryzen AI处理器优化了多款Stable Diffusion模型。这一技术突破显著提升了AMD硬件平台在生成式AI工作负载下的运行效率,实测显示推理速度最高可提升40%。该优...

Read More
2025-04-01 talkingdev

[论文推荐]Video Generation Faithfulness Benchmark:评估视频生成模型对提示词的忠实度

近日,arXiv平台发布了一项名为'Video Generation Faithfulness Benchmark'的研究,旨在系统评估视频生成模型对用户输入提示词(prompt)的忠实度。该研究不仅建立了首个针对视频生成忠实度的量化评估体系,还创新性...

Read More
  1. Prev Page
  2. 2
  3. 3
  4. 4
  5. Next Page