Osmosis-Apply-1.7B是基于Qwen3-1.7B模型通过强化学习微调而成的专用模型,在代码合并任务中表现出色,其奖励分数高达0.9893,甚至超越了OpenAI o3等更大规模的基础模型,同时显著降低了成本。该模型在CommitPackFT...
Read MoreMidjourney近期发布了一项重要工作,旨在提升创意写作模型的多样性表现。该团队通过对一个较小的7B模型进行后训练,使其在创意写作任务中的表现超越了更大规模的开放和封闭模型。这一突破不仅展示了模型优化技术的潜...
Read More我们很高兴地宣布,Gemma 2系列的两款新型号——9B和27B现已正式上市。这两款新型号均秉承了Gemma 2系列的一贯优良传统,将先进的技术与优雅的设计完美融合。无论是在性能、可靠性还是易用性方面,Gemma 2的9B和27B都...
Read More这款7b模型在医疗数据上进行了训练,当由医生进行人类偏好评估时,其与GPT-4打成了平手。这表明了医疗领域AI技术的强大进步。这款模型的性能与GPT-4相当,显示出其在理解和解析医疗数据方面的强大能力。这项成就不仅...
Read MoreJetMoe是一个基于混合专家模型的新AI系统,通过使用公共数据集和合理的计算资源进行训练,其性能与Meta的Llama 2 7B模型相媲美,但成本仅为10万美元。这一突破性的技术成果不仅展示了在不牺牲性能的前提下降低AI模型...
Read More近期,一项名为Qwen MoE的技术引起了业界关注。该技术在保持与强大7B参数模型相当性能的同时,成功将激活参数数量减少至原来的三分之一。这一突破性的进展不仅意味着更低的计算成本,还为大规模机器学习模型的可访问...
Read MoreMistral公司近期举办了一场黑客马拉松活动,并在此期间宣布了其7B语言模型的v0.2版本。同时,Mistral还发布了如何对其语言模型进行微调的代码。这些代码编写得整洁而简明,易于理解和使用。微调代码的发布,将有助于...
Read MorePredibase发布了25个狭窄的任务特定LoRA,每个在特定任务上都能超越GPT-4。这些任务特定的LoRA是建立在Mistral 7B模型之上的。这再次证明了本地模型在精确任务上表现异常出色的能力。
Read More