近日,一项名为PTSD(Progressive Tempering Sampler with Diffusion)的新型采样技术在预印本平台arXiv上发布,该技术通过序列化温度调节训练扩散模型,显著提升了从未归一化概率密度中采样的效率。传统方法在复杂...
Read MoreTokasaurus是一款针对高吞吐量工作负载优化的大型语言模型(LLM)推理引擎,由斯坦福大学Scaling Intelligence团队研发。该引擎通过创新的架构设计和算法优化,显著提升了LLM在批量处理任务时的计算效率,为需要大规...
Read More人工智能研究公司Anthropic正式推出Claude Opus 4和Claude Sonnet 4两大模型,在编码能力、高级推理及AI智能体领域设立全新行业标准。此次升级的核心突破在于模型针对复杂长时任务的设计优化,可持续运行数小时完成...
Read MoreDeepSeek研究团队以DeepSeek-V3为案例,分享了大型语言模型(LLM)训练中的硬件-模型协同设计创新成果。该研究通过多头部潜在注意力机制(Multi-head Latent Attention)、专家混合系统(Mixture of Experts)、FP8...
Read More人工智能领域迎来重大技术突破,开源项目ParScale通过创新性地在大型语言模型(LLM)的训练和推理阶段同时应用并行计算技术,成功建立了第三种LLM扩展范式。这一技术突破解决了传统序列计算模式在超大规模模型应用中...
Read More近日,一项名为Chain of Draft的创新推理策略在arXiv预印本平台引发关注。该技术通过精简推理路径设计,在保持与经典Chain-of-Thought方法相当甚至更高准确率的前提下,显著降低了大型语言模型的token消耗量。实验数...
Read MoreGitHub开源项目TScale提出了一种创新性的分布式训练解决方案,允许开发者在消费级GPU集群上高效运行大规模模型训练。该项目通过优化通信协议和资源调度算法,显著降低了分布式训练的硬件门槛,使中小型研究团队也能...
Read More最新研究表明,通过在大语言模型(LLM)的残差流中实施简单的表征控制向量干预,可显著调节其推理性能。这项发表于arXiv的突破性研究揭示了神经网络内部表征与逻辑推理能力的直接关联,为可解释AI领域提供了新工具。...
Read More