近日,一个名为OBLITERATUS的开源项目在开发者社区及技术新闻平台Hacker News上引发了广泛关注与讨论。该项目由开发者elder-plinius在GitHub上发布,其核心目标是“粉碎束缚你的枷锁”,具体指向为移除或绕过开源、开...
Read More一项最新研究显示,通过对开源大语言模型进行高效的微调,其性能可以超越顶尖的闭源模型。研究团队采用直接偏好优化方法,仅使用5400对偏好数据对GPT-OSS 120B模型进行训练,使其在RewardBench 2评估基准的人类偏好...
Read MoreHugging Face平台近日推出了一项名为“Hugging Face Skills”的新功能,该功能赋予了Anthropic公司的Claude AI模型直接微调开源大语言模型的能力。这项技术突破意味着,用户现在可以通过Claude的对话界面,直接提交模...
Read More当前最强大的开源大语言模型普遍采用自回归解码器架构的Transformer模型,但近年来涌现出多种创新架构。这些模型不仅关注计算效率的提升,更致力于突破性能瓶颈。文本扩散模型通过模拟去噪过程生成连贯文本,在创造...
Read More科技巨头IBM近日正式推出Granite 4.0大语言模型系列,该开源方案采用创新的混合架构设计,宣称相比传统LLM可大幅降低内存占用。作为拥有114年历史的科技企业,IBM此次发布的模型特别强调“企业就绪”特性,通过结合Mam...
Read MoreMeta公司最新推出了名为CWM(Code World Model)的开源大语言模型,该模型参数量达320亿,采用仅解码器架构。其创新之处在于训练数据融合了代码执行轨迹与复杂推理任务,旨在构建能够理解代码动态执行过程的‘世界模...
Read More谷歌研究团队正式推出VaultGemma模型,这是目前全球最大的基于差分隐私技术从头训练的开源大语言模型,参数量达到10亿级别。该模型已在Hugging Face和Kaggle平台开放访问。VaultGemma采用严格的差分隐私训练框架,在...
Read More近日,Artificial Analysis发布了一项针对OpenAI开源大语言模型gpt-oss-120b的性能基准测试报告。该测试聚焦于同一模型在不同托管服务提供商环境中的表现差异,结果显示各平台间的性能存在明显波动。作为当前参数规...
Read More