知名AI研究员、前特斯拉AI总监Andrej Karpathy近日在GitHub上开源了AutoResearch项目,该项目旨在构建一个能够在单GPU小型LLM训练环境中运行的AI驱动自主研究循环系统。该系统允许AI智能体自动修改代码和指导文件,...
Read More一项最新研究显示,通过对开源大语言模型进行高效的微调,其性能可以超越顶尖的闭源模型。研究团队采用直接偏好优化方法,仅使用5400对偏好数据对GPT-OSS 120B模型进行训练,使其在RewardBench 2评估基准的人类偏好...
Read MoreHugging Face平台近日推出了一项名为“Hugging Face Skills”的新功能,该功能赋予了Anthropic公司的Claude AI模型直接微调开源大语言模型的能力。这项技术突破意味着,用户现在可以通过Claude的对话界面,直接提交模...
Read More思维机器实验室最新研究揭示了低秩适配技术(LoRA)在大语言模型微调领域的突破性表现。这项发表于权威平台的研究表明,当LoRA应用于模型所有层(尤其是MLP层)且不受数据集规模限制时,其性能可完全媲美传统全参数...
Read More谷歌开发者博客最新推出开源项目Tunix,这是一个基于JAX框架原生设计的专业化工具库,致力于简化大型语言模型从预训练到完全对齐、生产就绪的完整流程。该库为开发者提供了一套全面且友好的工具集,支持大规模模型对...
Read MoreThinking Machines实验室近日正式发布Tinker API,这一创新平台为开源权重语言模型的精细化调优提供了灵活接口。该技术通过抽象化底层基础设施复杂度,显著降低了开发者部署大型语言模型的技术门槛。特别值得关注的...
Read MoreOpenAI最新推出的强化微调技术RFT旨在通过强化学习提升o4-mini模型在特定任务中的性能。该技术允许工程师通过灵活的评分器配置自定义奖励机制,理论上可在适用场景下实现显著性能突破。然而,其成本高达监督微调的70...
Read MoreIBM TechXchange 2025大会即将开启,这是一场专为AI工程师打造的实战盛宴。与会者将有机会亲身体验代理模型(agentic models)的开发,探索MCP协议(Model Control Protocol)在模型集成中的创新应用,并深入了解为...
Read More