Stability AI宣布推出Stable Diffusion 3,这是一款类似于OpenAI的Sora的Diffusion Transformer。公司训练了一套模型,参数范围从8亿到80亿,这是从以前的图像生成模型中跨越式的飞跃。这些模型将在经过一段时间的研...
Read MorePixArt一直是流行的Stable Diffusion图像生成模型的并行研究方向。本研究采用潜在一致性模型实现更快的生成速度,并采用ControlNet样式提示实现更好的控制。
Read MoreDiffusionEdge是一种新颖的边缘检测模型,它集成了扩散概率模型,可以在资源有效的同时提供更准确和清晰的边缘图。传统的边缘检测模型对于噪声和边缘不清晰的情况表现得不够稳定。DiffusionEdge的扩散模型可以帮助减...
Read More研究人员开发了Diffusion-SS3D,这是一种改进半监督3D物体检测的新方法,使用扩散模型添加噪声到3D空间中的物体大小和类别标签分布,然后使用扩散模型去噪和生成更好的边界框输出。
Read More该项目探索了视觉转换器在基于扩散的生成学习中的有效性,揭示了Diffusion Vision Transformers(DiffiT)。该模型将U形编码器-解码器架构与新型时变自注意模块相结合。DiffiT可以生成高分辨率的图像,具有非常好的...
Read MoreDiffusion Models as Prior (DMP)是一种新的方法,它在AI生成的图像中提高了语义预测的准确性。该创新性方法巧妙地将预先训练的文本到图像模型应用于各种任务,例如3D属性估计和语义分割,在有限的训练数据下表现优...
Read MoreStability AI宣布其开源模型组合中将新增稳定视频传输技术Stable Video Diffusion。其AI模型组合已经涵盖了图像、语言、音频、3D和代码等多种模态。
Read MoreMonoDiffusion是一种新的自监督单目深度估计框架,其独特的方法将深度估计问题视为迭代去噪过程。它利用预训练的教师模型指导伪地面真值扩散过程,从而提高深度图精度,无需在训练中使用实际的深度真值。
Read More这项研究提出了3DStyle-Diffusion模型,这是一种用于对3D网格进行细节风格化的新方法,整合了2D扩散模型以增加对外观和几何形状的控制。它通过首先使用隐式MLP网络将3D网格的纹理参数化为反射和照明,然后使用预训练...
Read More