漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2026-03-09 talkingdev

开源|Karpathy发布AutoResearch项目:单GPU驱动的AI自主研究循环

知名AI研究员、前特斯拉AI总监Andrej Karpathy近日在GitHub上开源了AutoResearch项目,该项目旨在构建一个能够在单GPU小型LLM训练环境中运行的AI驱动自主研究循环系统。该系统允许AI智能体自动修改代码和指导文件,...

Read More
2026-02-03 talkingdev

开源模型逆袭!GPT-OSS 120B通过DPO微调,在人类偏好对齐任务上超越GPT-5.2

一项最新研究显示,通过对开源大语言模型进行高效的微调,其性能可以超越顶尖的闭源模型。研究团队采用直接偏好优化方法,仅使用5400对偏好数据对GPT-OSS 120B模型进行训练,使其在RewardBench 2评估基准的人类偏好...

Read More
2025-12-05 talkingdev

Hugging Face新技能:Claude AI现已能微调开源大语言模型

Hugging Face平台近日推出了一项名为“Hugging Face Skills”的新功能,该功能赋予了Anthropic公司的Claude AI模型直接微调开源大语言模型的能力。这项技术突破意味着,用户现在可以通过Claude的对话界面,直接提交模...

Read More
2025-10-06 talkingdev

LoRA无憾:低秩适配技术全面匹敌全参数微调,突破大模型高效训练瓶颈

思维机器实验室最新研究揭示了低秩适配技术(LoRA)在大语言模型微调领域的突破性表现。这项发表于权威平台的研究表明,当LoRA应用于模型所有层(尤其是MLP层)且不受数据集规模限制时,其性能可完全媲美传统全参数...

Read More
2025-10-02 talkingdev

谷歌发布Tunix:基于JAX的LLM后训练工具库,加速大模型生产部署

谷歌开发者博客最新推出开源项目Tunix,这是一个基于JAX框架原生设计的专业化工具库,致力于简化大型语言模型从预训练到完全对齐、生产就绪的完整流程。该库为开发者提供了一套全面且友好的工具集,支持大规模模型对...

Read More
2025-10-02 talkingdev

Thinking Machines实验室推出Tinker API:革新语言模型微调技术

Thinking Machines实验室近日正式发布Tinker API,这一创新平台为开源权重语言模型的精细化调优提供了灵活接口。该技术通过抽象化底层基础设施复杂度,显著降低了开发者部署大型语言模型的技术门槛。特别值得关注的...

Read More
2025-09-26 talkingdev

OpenAI强化微调技术RFT成本暴增700倍,仅编码任务表现突出引争议

OpenAI最新推出的强化微调技术RFT旨在通过强化学习提升o4-mini模型在特定任务中的性能。该技术允许工程师通过灵活的评分器配置自定义奖励机制,理论上可在适用场景下实现显著性能突破。然而,其成本高达监督微调的70...

Read More
2025-08-04 talkingdev

IBM TechXchange 2025大会:聚焦企业级AI开发实战与前沿技术

IBM TechXchange 2025大会即将开启,这是一场专为AI工程师打造的实战盛宴。与会者将有机会亲身体验代理模型(agentic models)的开发,探索MCP协议(Model Control Protocol)在模型集成中的创新应用,并深入了解为...

Read More
  1. 1
  2. 2
  3. 3
  4. Next Page