字节跳动Seed团队在GitHub上开源了Stable-DiffCoder项目,这是一个基于扩散模型(Diffusion Model)构建的轻量级代码大语言模型(Code DLLM)家族。该项目创新性地将扩散模型的生成范式引入代码建模领域,通过“块扩...
Read More强化学习预训练(Reinforcement Pre-Training, RPT)作为大语言模型(LLM)与强化学习(RL)协同进化的前沿技术,提出了一种革命性的规模化训练范式。该技术通过创新性地利用海量文本数据进行通用强化学习预训练,在...
Read More近日,自然语言处理领域迎来一项重要技术突破——MiniPLM框架正式发布。该框架创新性地提出了一种高效的小型语言模型(SLM)预训练方法,通过从大型语言模型(LLM)中提取知识进行蒸馏训练,显著提升了小模型的性能表...
Read More近日,人工智能技术公司Hugging Face Hub发布了一款名为Math Mistral的模型,该模型针对数学及推理能力进行了训练,具备强大的能力和广泛的应用场景。 Math Mistral是一种基于自然语言处理技术的模型,它可以帮助用...
Read More