字节跳动Seed团队在GitHub上开源了Stable-DiffCoder项目,这是一个基于扩散模型(Diffusion Model)构建的轻量级代码大语言模型(Code DLLM)家族。该项目创新性地将扩散模型的生成范式引入代码建模领域,通过“块扩...
Read More近日,一个名为TTT-Discover的开源项目在GitHub上发布,其核心创新在于将强化学习(Reinforcement Learning)技术应用于大型语言模型(LLMs)的推理(Inference)阶段,而非传统的训练阶段。这一“测试时训练”(Test-...
Read More在开源人工智能社区中,PDF文档长期以来被视为一座未被充分挖掘的高质量数据金矿。近日,Hugging Face团队正式发布了其开创性的预训练数据集项目——FinePDFs,成功从海量PDF文档中提取并构建了一个规模超过3万亿令牌...
Read More一篇题为《图解Transformer》的技术博客在开发者社区Hacker News上引发了广泛关注,该博客由jalammar撰写,通过大量直观的图示和清晰的解释,深入浅出地剖析了Transformer这一革命性神经网络架构的核心工作原理。Tra...
Read MoreMeta旗下Facebook Research团队在GitHub开源了Omnilingual ASR多语言语音识别系统,这项突破性技术首次实现对全球1600余种语言的语音转文本支持,其中数百种语言是现有ASR技术从未覆盖的濒危语种。该系统采用创新的...
Read MoreOpenAI最新推出的gpt-oss-safeguard系列模型(包含1200亿和200亿参数版本)标志着AI安全技术的重要突破。该模型创新性地允许开发者在推理阶段直接应用定制化安全策略,无需像传统方法那样依赖数千个标注样本训练分类...
Read More近日,谷歌DeepMind团队发布的Gemini Diffusion实验性语言模型引发学界关注。该模型突破传统GPT逐词生成范式,采用扩散模型技术通过逐步去噪的方式直接生成完整文本块。研究人员在研读《大语言扩散模型》论文时发现...
Read More来自大规模实验的研究团队发布了名为ScaleRL的创新框架,这是首个针对大型语言模型强化学习计算扩展的系统性研究方法。该研究通过超过40万GPU小时的实验数据,构建了可预测的S型计算-性能曲线,揭示了RL训练中算法改...
Read More