漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-04-02 talkingdev

Open Hands推出32B代码模型,在代理编码任务中超越更大规模模型

Open Hands团队最新发布的32B参数代码模型(Open Hands LM-32B)在强化学习(RL)训练框架下,基于Qwen架构实现了突破性进展。该模型在代理编码任务(agentic coding tasks)中的表现已超越许多参数规模更大的竞品,...

Read More
2025-03-31 talkingdev

[论文推荐]研究人员提出Panacea方法:防御有害微调攻击的新型自适应扰动技术

最新研究揭示了现有防御有害微调攻击(Harmful Fine-Tuning Attacks)方法的脆弱性,并提出了一种名为Panacea的创新解决方案。该方案采用自适应扰动技术,在保持模型微调性能的同时有效维护模型安全性。这一突破性进...

Read More
2025-03-31 talkingdev

[论文推荐]Test-Time Visual In-Context Tuning:一种仅需测试样本即可实现视觉模型自适应调优的新方法

近日,一项名为Test-Time Visual In-Context Tuning(TT-VICT)的创新性研究在计算机视觉领域引发广泛关注。该技术突破性地提出仅利用测试样本即可实现视觉上下文学习模型(VICL)的自适应调优,有效解决了传统方法...

Read More
2025-03-25 talkingdev

Unsloth团队成功优化Gemma 3模型,提供免费Colab训练实例

近日,Unsloth团队宣布已成功解决了来自DeepMind的新开源权重模型——Gemma 3的一些技术难题。通过与Unsloth的工具包集成,开发者现在可以在免费的Google Colab实例上对Gemma 3进行微调训练。这一突破性进展不仅降低了...

Read More
2025-03-20 talkingdev

[开源] Hugging Face的R1项目复现(GitHub仓库)

Hugging Face的Open-R1项目旨在提供一个更为稳健和功能完备的解决方案,同时保持其最小化和可扩展性。该项目通过增加监督微调(SFT)步骤和数据蒸馏技术,进一步提升了模型的性能和适应性。这些改进使得Open-R1在处...

Read More
2025-03-19 talkingdev

无需额外训练,通过Diffusion Transformer实现图像个性化

最新的技术突破使得我们几乎可以通过在Diffusion Transformer中使用token替换来实现对任何图像的个性化,而无需进行额外的微调或训练。这一创新方法不仅大大简化了个性化图像的生成过程,还显著提高了效率。Diffusio...

Read More
2025-03-13 talkingdev

Flat Color LoRA 模型发布,推动 Wan 视频模型技术革新

近日,Flat Color LoRA 模型在 Hugging Face Hub 上正式发布,这一模型的推出为 Wan 视频模型技术注入了新的活力。LoRA(Low-Rank Adaptation)技术作为一种高效的模型微调方法,能够在保持模型原有性能的同时,显著...

Read More
2025-03-01 talkingdev

GPT 4.5被指缺乏实质性突破,业界质疑其创新价值

近日,关于GPT 4.5的讨论在技术圈内引发热议。尽管OpenAI尚未正式发布GPT 4.5,但已有不少声音质疑其是否真的带来了实质性的技术突破。一些专家认为,GPT 4.5可能只是在GPT 4的基础上进行了微调,缺乏革命性的创新。...

Read More
  1. Prev Page
  2. 7
  3. 8
  4. 9
  5. Next Page