漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-05-02 talkingdev

微软OmniParser v2.0:全新截图解析工具性能大提升

微软近日发布了其广受欢迎的截图解析工具OmniParser的重大版本更新——OmniParser v2.0。作为一款领先的视觉信息处理工具,新版本在Screenshot Pro基准测试中表现优异,展现了微软在计算机视觉和自然语言处理领域的技...

Read More
2025-05-02 talkingdev

[论文推荐]Fed-SB提出基于LoRA-SB的联邦学习微调方案,显著降低通信成本

Fed-SB研究团队在arXiv最新论文中提出了一种突破性的联邦学习框架LoRA-SB,该技术通过低秩自适应(Low-Rank Adaptation, LoRA)方法实现大型语言模型(LLM)的高效分布式微调。这一创新方案通过参数高效微调(PEFT)技术,...

Read More
2025-04-30 talkingdev

图灵GenAI与LLM评估工具:5分钟快速诊断AI战略瓶颈

图灵公司推出的GenAI与LLM评估工具为AI项目负责人提供了一种高效的自我诊断方案,旨在识别从人才缺口到规模化挑战等后训练阶段的战略瓶颈。该工具仅需五分钟即可生成针对性的后续步骤建议和资源推荐,特别适用于基于...

Read More
2025-04-30 talkingdev

IBM开源Bamba模型:融合Transformer与SSM优势的新型大语言模型

IBM研究院近日推出开源大语言模型Bamba,该模型创新性地结合了Transformer架构的序列建模能力和状态空间模型(SSM)的推理速度优势。作为IBM Granite系列模型的技术前导,Bamba通过注意力机制与状态空间方程的混合设...

Read More
2025-04-29 talkingdev

[论文推荐]ReLearn:大语言模型高效遗忘学习的数据增强与微调方案

来自arXiv的最新研究论文提出ReLearn框架,通过创新的数据增强和微调技术,解决了大语言模型(LLMs)中的关键挑战——'遗忘学习'(Unlearning)。该技术可精准移除模型训练数据中的特定信息,同时保持整体性能,对数据...

Read More
2025-04-28 talkingdev

[论文推荐]华为提出轻量级神经应用控制新方法

华为研究人员在arXiv最新论文中提出了一种创新性的轻量级神经应用控制技术,该技术利用视觉语言模型(VLMs)实现Android设备的应用控制,且仅需极少的额外系统配置。这一突破性进展标志着多模态AI在移动终端交互领域的...

Read More
2025-04-26 talkingdev

[论文推荐] 无损压缩大模型:动态长度浮点技术实现70%体积缩减,GPU推理效率飞跃

来自arXiv的最新研究论文提出了一种名为DFloat11的动态长度浮点无损压缩框架,通过创新性地利用LLM权重中BFloat16格式的低熵特性,实现了30%的模型体积缩减,同时保持输出结果与原始模型的比特级一致性。该技术采用...

Read More
2025-04-25 talkingdev

MiniPLM框架发布:利用大模型知识提升小语言模型预训练效率

近日,自然语言处理领域迎来一项重要技术突破——MiniPLM框架正式发布。该框架创新性地提出了一种高效的小型语言模型(SLM)预训练方法,通过从大型语言模型(LLM)中提取知识进行蒸馏训练,显著提升了小模型的性能表...

Read More
  1. Prev Page
  2. 54
  3. 55
  4. 56
  5. Next Page