IBM研究院近日推出开源大语言模型Bamba,该模型创新性地结合了Transformer架构的序列建模能力和状态空间模型(SSM)的推理速度优势。作为IBM Granite系列模型的技术前导,Bamba通过注意力机制与状态空间方程的混合设...
Read More来自arXiv的最新研究论文提出ReLearn框架,通过创新的数据增强和微调技术,解决了大语言模型(LLMs)中的关键挑战——'遗忘学习'(Unlearning)。该技术可精准移除模型训练数据中的特定信息,同时保持整体性能,对数据...
Read More华为研究人员在arXiv最新论文中提出了一种创新性的轻量级神经应用控制技术,该技术利用视觉语言模型(VLMs)实现Android设备的应用控制,且仅需极少的额外系统配置。这一突破性进展标志着多模态AI在移动终端交互领域的...
Read More来自arXiv的最新研究论文提出了一种名为DFloat11的动态长度浮点无损压缩框架,通过创新性地利用LLM权重中BFloat16格式的低熵特性,实现了30%的模型体积缩减,同时保持输出结果与原始模型的比特级一致性。该技术采用...
Read More近日,自然语言处理领域迎来一项重要技术突破——MiniPLM框架正式发布。该框架创新性地提出了一种高效的小型语言模型(SLM)预训练方法,通过从大型语言模型(LLM)中提取知识进行蒸馏训练,显著提升了小模型的性能表...
Read MoreAdobe近日发布了Firefly的重大更新,此次更新不仅整合了图像、视频、音频及矢量生成工具,还新增了移动端支持,并进一步深化了与Creative Cloud的集成。这一举措标志着Adobe在创意AI领域的又一重要突破,为设计师和...
Read MoreANFM研究团队在arXiv最新发表的论文中,提出了一种基于过滤技术(filtration techniques)的革命性图生成方法。该技术通过优化传统图生成模型的拓扑结构处理流程,实现了比扩散模型快100倍的训练速度,同时保持了具...
Read More最新研究表明,采用混合专家模型(MoE)架构的DeepSeek-V3/R1在多节点GPU部署中展现出显著性能优势。该模型通过创新的资源分配机制,在绝大多数应用场景下同步实现了更高吞吐量和更低延迟的双重突破。技术分析显示,...
Read More