强化学习(RL)作为一种让AI模型通过试错而非简单模仿人类示例进行学习的技术,正展现出其在复杂任务处理中的独特优势。最新行业动态显示,科技公司正在采用两种创新方法大幅扩展训练数据规模:一是利用AI模型相互评...
Read More上海科研团队最新发布的DiTorch和DiComm技术框架,突破了AI训练对同构硬件的依赖。该创新通过统一编程接口整合NVIDIA、AMD等异构芯片架构,在1,024块规格差异显著的芯片集群上训练千亿参数模型时实现116%的超线性效...
Read MoreMeta研究团队最新提出的零样本嫁接(zero-shot grafting)方法,通过从大型语言模型(LLM)的浅层中提取小型代理模型来训练视觉编码器,实现了视觉语言模型(VLM)训练成本降低约45%的突破。该技术不仅显著降低了计...
Read MoreVideo-R1项目提出了一种创新的基于规则的强化学习(RL)方法,专门用于视频推理任务。该方法采用了GRPO(Generalized Reinforcement Learning with Policy Optimization)的时间变体,并引入了新的数据集来支持训练...
Read More在最新的研究进展中,科学家提出了一种广义离散扩散方法,该方法显著改进了在文本等离散数据上的扩散过程。这一创新通过引入一种广义的去噪过程和略微改进的掩码方案,使得训练过程更加高效,并赋予了模型自我校正输...
Read More近日,一项名为TREAD(Token Routing for Efficient Architecture-agnostic Diffusion Training)的新技术引起了广泛关注。该技术通过创新的Token Routing机制,显著提升了扩散模型(Diffusion Models)的样本效率,...
Read More在技术社区中,近日有开发者分享了利用Google Cloud TPUs对LLaMa3.1进行调优的经验和方法。这一过程不仅展示了TPUs在处理大型模型时的卓越性能,还强调了调优过程中的一些关键技术细节。调优LLaMa3.1的过程中,开发...
Read More模块化范数是一种全新的神经网络权重更新归一化方法,能够高效扩展不同规模网络的训练。这种方法通过调整网络的权重更新过程,确保在各种网络规模下都能保持高效的训练速度和准确性。与传统的归一化方法相比,模块化...
Read More