Open Hands团队最新发布的32B参数代码模型(Open Hands LM-32B)在强化学习(RL)训练框架下,基于Qwen架构实现了突破性进展。该模型在代理编码任务(agentic coding tasks)中的表现已超越许多参数规模更大的竞品,...
Read More最新研究揭示了现有防御有害微调攻击(Harmful Fine-Tuning Attacks)方法的脆弱性,并提出了一种名为Panacea的创新解决方案。该方案采用自适应扰动技术,在保持模型微调性能的同时有效维护模型安全性。这一突破性进...
Read More近日,一项名为Test-Time Visual In-Context Tuning(TT-VICT)的创新性研究在计算机视觉领域引发广泛关注。该技术突破性地提出仅利用测试样本即可实现视觉上下文学习模型(VICL)的自适应调优,有效解决了传统方法...
Read More近日,Unsloth团队宣布已成功解决了来自DeepMind的新开源权重模型——Gemma 3的一些技术难题。通过与Unsloth的工具包集成,开发者现在可以在免费的Google Colab实例上对Gemma 3进行微调训练。这一突破性进展不仅降低了...
Read MoreHugging Face的Open-R1项目旨在提供一个更为稳健和功能完备的解决方案,同时保持其最小化和可扩展性。该项目通过增加监督微调(SFT)步骤和数据蒸馏技术,进一步提升了模型的性能和适应性。这些改进使得Open-R1在处...
Read More最新的技术突破使得我们几乎可以通过在Diffusion Transformer中使用token替换来实现对任何图像的个性化,而无需进行额外的微调或训练。这一创新方法不仅大大简化了个性化图像的生成过程,还显著提高了效率。Diffusio...
Read More近日,Flat Color LoRA 模型在 Hugging Face Hub 上正式发布,这一模型的推出为 Wan 视频模型技术注入了新的活力。LoRA(Low-Rank Adaptation)技术作为一种高效的模型微调方法,能够在保持模型原有性能的同时,显著...
Read More近日,关于GPT 4.5的讨论在技术圈内引发热议。尽管OpenAI尚未正式发布GPT 4.5,但已有不少声音质疑其是否真的带来了实质性的技术突破。一些专家认为,GPT 4.5可能只是在GPT 4的基础上进行了微调,缺乏革命性的创新。...
Read More