大型语言模型的部署成本一直是其广泛应用的主要障碍之一。一篇来自AlphaXiv的最新研究提出了一种创新解决方案:通过强化学习微调递归语言模型(RLMs)。该方法的核心在于训练一个共享的策略,同时驱动父模型和子模型...
Read More近日,GitHub上一个名为‘soulplayer-c64’的开源项目引发了技术社区的广泛关注。该项目成功地在仅有1MHz主频、内存极其有限的经典计算机Commodore 64上,部署并运行了一个拥有25,000个参数的真实Transformer神经网络...
Read MoreDeepMind的研究团队近日在arXiv上发布了一项名为“弹性循环Transformer”的创新工作,为视觉生成模型领域带来了显著的效率突破。传统视觉生成模型通常依赖堆叠大量独立的Transformer层,导致参数量庞大。ELT的核心创新...
Read More富士通研究院近日开源了名为“OneCompression”(简称OneComp)的Python库,这是一个专门用于大语言模型后训练量化的工具。该库集成了当前最先进的量化算法,包括GPTQ和DBF,旨在帮助开发者和研究人员高效地将庞大的LL...
Read More近日,由D2I-ai团队在GitHub上开源的DASD(序列蒸馏)项目,提出了一种创新的模型蒸馏流程,旨在训练出更紧凑、高效的模型以应对复杂的推理任务。该流程整合了温度调度学习与发散感知采样等前沿技术,通过精细化的知...
Read More三星蒙特利尔AI实验室最新研究《Less is More: Recursive Reasoning with Tiny Networks》提出突破性方法,通过递归架构使参数量极少的神经网络具备复杂推理能力。该研究在arXiv公开的论文(编号2510.04871)中展示...
Read More随着深度神经网络(DNNs)在边缘设备上的应用日益广泛,网络压缩技术的重要性愈发凸显。针对现有方法在边缘设备部署上的挑战,研究者提出了一种创新的分数阶高斯滤波与剪枝(FGFP)框架。该框架将分数阶微分计算与高...
Read More最新发表于arXiv的研究表明,通过在训练前随机剪除固定比例的权重参数,稀疏深度强化学习(DRL)网络展现出显著的参数效率优势。该方法不仅减少了模型复杂度,还成功规避了传统训练过程中常见的优化陷阱。这种一次性剪...
Read More