字节跳动Seed团队在GitHub上开源了Stable-DiffCoder项目,这是一个基于扩散模型(Diffusion Model)构建的轻量级代码大语言模型(Code DLLM)家族。该项目创新性地将扩散模型的生成范式引入代码建模领域,通过“块扩...
Read More英伟达今日正式发布了名为Alpamayo的开源AI模型家族,并配套推出了仿真工具与数据集,旨在加速下一代基于推理的安全型自动驾驶系统的开发进程。这一系列模型、数据集和仿真器主要针对自动驾驶领域中的“长尾挑战”——即...
Read More根据Epoch AI研究所发布的最新能力指数分析,自2023年以来,所有处于人工智能能力前沿的模型均由美国研发。同期,中国开发的AI模型在能力上平均落后美国前沿水平约7个月,差距最小为4个月,最大可达14个月。这一差距...
Read More根据年度回顾分析,2025年是大语言模型(LLM)发展史上具有里程碑意义的一年。核心技术突破体现在模型获得了真正的“推理”能力,使其能够处理复杂的多步骤任务,这直接推动了高性能AI智能体的广泛应用。其中,“编码智...
Read More人工智能开源领域迎来重要进展。知名开源力量MiniMax推出的最新模型M2.1现已正式在Kilo平台上线。根据官方信息,M2.1在多项关键基准测试中表现优异,其性能已超越国内同行DeepSeek和Kimi等知名模型。更值得关注的是...
Read More人工智能领域知名专家安德烈·卡帕西(Andrej Karpathy)近期发布了其对2025年大语言模型(LLM)发展的年度回顾,系统性地梳理了行业在过去一年中经历的深刻范式转变。报告指出,技术演进的核心驱动力已从单纯追求模...
Read More知名AI研究员Andrej Karpathy近期发布了其对2025年大语言模型(LLM)领域范式变革的年度回顾文章,引发了技术社区的广泛关注与讨论。该文章深度剖析了过去一年中LLM领域在架构、训练范式、应用部署及多模态融合等方...
Read More英伟达近日正式发布了Nemotron 3系列开源模型,该家族包含Nano(300亿参数,30亿活跃参数)、Super(1000亿参数)和Ultra(5000亿参数)三个版本,其中Super和Ultra型号计划于2026年初推出。尤为引人注目的是,当前...
Read More