谷歌研究团队近日在GitHub上开源了TimesFM(Time Series Foundation Model),这是一个预训练的时间序列基础模型,专为时间序列预测任务而设计。该模型采用了一种创新的“分块解码器”风格注意力架构,并在一个大规模...
Read More近日,一个名为ATLAS(Adaptive Test-time Learning and Autonomous Specialization)的开源项目在开发者社区引发广泛关注。根据Hacker News上的讨论,该项目展示了一项引人瞩目的性能表现:在特定的编码基准测试中...
Read More一家名为Moonshine AI的小型初创公司(团队仅六人,月GPU预算低于10万美元)近日在GitHub上开源了其自动语音识别(ASR)项目Moonshine。该项目针对边缘设备优化,提供了快速且高精度的语音转文本(STT)模型。据开发...
Read More近日,由zai-org团队在Hugging Face平台开源了GLM-OCR模型,这是一款专为复杂文档理解设计的先进多模态OCR系统。该模型的核心创新在于其精巧的三段式架构:首先,它采用了在大规模图文数据上预训练的CogViT视觉编码...
Read More近日,NVIDIA研究团队提出了一种名为“金鹅”(Golden Goose)的创新方法,旨在解决大语言模型(LLM)强化学习领域的一个关键瓶颈。当前,基于可验证奖励的强化学习(RLVR)是解锁LLM复杂推理能力的重要基石,但其发展...
Read More字节跳动Seed团队在GitHub上开源了Stable-DiffCoder项目,这是一个基于扩散模型(Diffusion Model)构建的轻量级代码大语言模型(Code DLLM)家族。该项目创新性地将扩散模型的生成范式引入代码建模领域,通过“块扩...
Read More近日,一个名为TTT-Discover的开源项目在GitHub上发布,其核心创新在于将强化学习(Reinforcement Learning)技术应用于大型语言模型(LLMs)的推理(Inference)阶段,而非传统的训练阶段。这一“测试时训练”(Test-...
Read More在开源人工智能社区中,PDF文档长期以来被视为一座未被充分挖掘的高质量数据金矿。近日,Hugging Face团队正式发布了其开创性的预训练数据集项目——FinePDFs,成功从海量PDF文档中提取并构建了一个规模超过3万亿令牌...
Read More