漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2026-05-13 talkingdev

强化学习赋能递归语言模型:小模型也能媲美Claude Sonnet,成本大幅降低

大型语言模型的部署成本一直是其广泛应用的主要障碍之一。一篇来自AlphaXiv的最新研究提出了一种创新解决方案:通过强化学习微调递归语言模型(RLMs)。该方法的核心在于训练一个共享的策略,同时驱动父模型和子模型...

Read More
2026-04-21 talkingdev

开源|Soul Player C64:在1MHz的Commodore 64上运行的真实Transformer模型

近日,GitHub上一个名为‘soulplayer-c64’的开源项目引发了技术社区的广泛关注。该项目成功地在仅有1MHz主频、内存极其有限的经典计算机Commodore 64上,部署并运行了一个拥有25,000个参数的真实Transformer神经网络...

Read More
2026-04-14 talkingdev

论文推荐|DeepMind提出弹性循环Transformer:参数锐减4倍,视觉生成质量依然顶尖

DeepMind的研究团队近日在arXiv上发布了一项名为“弹性循环Transformer”的创新工作,为视觉生成模型领域带来了显著的效率突破。传统视觉生成模型通常依赖堆叠大量独立的Transformer层,导致参数量庞大。ELT的核心创新...

Read More
2026-04-02 talkingdev

开源|富士通发布OneComp:面向大语言模型的后训练量化开源库

富士通研究院近日开源了名为“OneCompression”(简称OneComp)的Python库,这是一个专门用于大语言模型后训练量化的工具。该库集成了当前最先进的量化算法,包括GPTQ和DBF,旨在帮助开发者和研究人员高效地将庞大的LL...

Read More
2026-01-16 talkingdev

开源|DASD:序列蒸馏技术打造高效推理模型,4B/30B版本在代码、数学与科学基准测试中表现强劲

近日,由D2I-ai团队在GitHub上开源的DASD(序列蒸馏)项目,提出了一种创新的模型蒸馏流程,旨在训练出更紧凑、高效的模型以应对复杂的推理任务。该流程整合了温度调度学习与发散感知采样等前沿技术,通过精细化的知...

Read More
2025-10-08 talkingdev

论文推荐|Less is More:微型网络实现递归推理

三星蒙特利尔AI实验室最新研究《Less is More: Recursive Reasoning with Tiny Networks》提出突破性方法,通过递归架构使参数量极少的神经网络具备复杂推理能力。该研究在arXiv公开的论文(编号2510.04871)中展示...

Read More
2025-08-01 talkingdev

[论文推荐] FGFP框架:基于分数阶高斯滤波与剪枝的深度神经网络压缩技术

随着深度神经网络(DNNs)在边缘设备上的应用日益广泛,网络压缩技术的重要性愈发凸显。针对现有方法在边缘设备部署上的挑战,研究者提出了一种创新的分数阶高斯滤波与剪枝(FGFP)框架。该框架将分数阶微分计算与高...

Read More
2025-06-24 talkingdev

[论文推荐]稀疏DRL网络通过预训练随机剪枝实现参数高效优化

最新发表于arXiv的研究表明,通过在训练前随机剪除固定比例的权重参数,稀疏深度强化学习(DRL)网络展现出显著的参数效率优势。该方法不仅减少了模型复杂度,还成功规避了传统训练过程中常见的优化陷阱。这种一次性剪...

Read More
  1. 1
  2. 2
  3. 3
  4. Next Page