漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-04-02 talkingdev

Open Hands推出32B代码模型,在代理编码任务中超越更大规模模型

Open Hands团队最新发布的32B参数代码模型(Open Hands LM-32B)在强化学习(RL)训练框架下,基于Qwen架构实现了突破性进展。该模型在代理编码任务(agentic coding tasks)中的表现已超越许多参数规模更大的竞品,...

Read More
2025-04-01 talkingdev

[论文推荐]Video Generation Faithfulness Benchmark:评估视频生成模型对提示词的忠实度

近日,arXiv平台发布了一项名为'Video Generation Faithfulness Benchmark'的研究,旨在系统评估视频生成模型对用户输入提示词(prompt)的忠实度。该研究不仅建立了首个针对视频生成忠实度的量化评估体系,还创新性...

Read More
2025-03-28 talkingdev

[论文推荐]Guidance-Free Training:无需分类器引导的视觉生成模型训练新方法

近日,一项名为Guidance-Free Training(GFT)的技术突破引发计算机视觉领域关注。该技术通过完全消除对Classifier-Free Guidance(CFG)的依赖,在保持生成质量的同时显著降低计算成本。与传统基于蒸馏的方法不同,...

Read More
2025-03-18 talkingdev

[开源] CSM语音模型在MLX上的高效运行

近日,Sesame发布了一款1B规模的对话语音生成模型,并在GitHub上开源了其Apple原生MLX版本。该版本专为在MacBook等苹果设备上高效运行而优化,展示了机器学习在移动设备上的应用潜力。MLX是苹果公司推出的机器学习框...

Read More
2025-03-15 talkingdev

Block Diffusion:自回归与扩散模型之间的创新融合

近日,一项名为Block Diffusion的技术引起了广泛关注。该技术通过创新的方式在自回归模型(autoregressive models)和扩散模型(diffusion models)之间进行插值,为生成模型领域带来了新的突破。自回归模型以其序列...

Read More
2025-03-13 talkingdev

[开源] 感应矩匹配:连续数据扩散模型的统一与简化

近日,Luma Labs在GitHub上开源了一个名为感应矩匹配(Inductive Moment Matching, IMM)的项目,该项目通过一种新的矩匹配框架,为连续数据的扩散模型提供了一种统一且简化的解决方案。这一技术不仅显著减少了生成...

Read More
2025-03-13 talkingdev

[论文推荐]TaylorSeer提出基于泰勒级数扩展的扩散模型未来特征预测方法

近日,TaylorSeer团队提出了一种利用泰勒级数扩展来预测扩散模型中未来时间步特征的新方法,显著减少了特征缓存中的误差。扩散模型在生成图像、声音和其他复杂数据方面表现出色,但其计算复杂度和资源消耗一直是制约...

Read More
2025-03-04 talkingdev

ImageNet在文本到图像生成中的潜力探索

大多数文本到图像生成模型依赖于从网络上抓取的大量自定义数据。然而,一项最新研究探讨了仅使用ImageNet数据集训练图像生成模型的可能性。研究发现,通过合成生成的密集标注(dense captions)能够显著提升模型性能...

Read More
  1. Prev Page
  2. 6
  3. 7
  4. 8
  5. Next Page