近日,多家领先的AI推理服务提供商,包括Baseten、DeepInfra、Fireworks AI和Together AI,宣布通过在其服务中部署基于NVIDIA Blackwell架构的GPU并运行开源模型,成功将每次推理的令牌成本大幅降低了高达10倍。这一...
Read More埃里克·张(Eric Jang)在其个人博客Evjang.com上发表了一篇关于人工智能前沿趋势的深度分析文章。文章以范内瓦·布什博士1945年的经典论述《诚如所思》为引,将现实世界比作一个开放式的多人在线游戏(MMO),并指出...
Read More近日,一个名为TTT-Discover的开源项目在GitHub上发布,其核心创新在于将强化学习(Reinforcement Learning)技术应用于大型语言模型(LLMs)的推理(Inference)阶段,而非传统的训练阶段。这一“测试时训练”(Test-...
Read More在AI驱动的编程浪潮中,一位开发者分享了其软件开发流程的革命性变化。借助GPT-5/5.2 Codex等先进模型,他已能够以“推理速度”交付代码,这意味着开发速度的主要瓶颈已从人类编码能力转变为AI模型的处理时间。尽管GPT...
Read More大语言模型(LLM)作为基于Transformer架构的神经网络,通过并行分析完整序列并计算词语间的全局关联性,实现了自然语言处理的突破性进展。在推理过程中,模型首先将输入文本转化为数字化的词元嵌入向量,随后通过Tr...
Read More业界瞩目的开源AI推理基准测试工具InferenceMAX正式亮相,该工具通过夜间自动化测试对Llama 70B、DeepSeek R1等主流大模型进行持续性能评估。其核心价值在于量化AI推理中的关键权衡:吞吐量(每GPU每秒处理令牌数)...
Read MoreMeta公司内部团队与vLLM、PyTorch展开深度技术合作,成功推出预填充/解码分离技术(prefill/decode disaggregation),这项突破性技术显著提升了大规模语言模型在生产环境中的推理性能。通过将推理过程分解为预填充...
Read More大型语言模型(LLM)推理过程中的非确定性问题正成为制约科学研究可重复性的关键障碍。即使将温度参数调整为0(贪婪采样模式),ChatGPT等模型仍无法保证输出结果的确定性。这种现象不仅存在于API服务中,即使在本地...
Read More