漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-03-20 talkingdev

[开源] Hugging Face的R1项目复现(GitHub仓库)

Hugging Face的Open-R1项目旨在提供一个更为稳健和功能完备的解决方案,同时保持其最小化和可扩展性。该项目通过增加监督微调(SFT)步骤和数据蒸馏技术,进一步提升了模型的性能和适应性。这些改进使得Open-R1在处...

Read More
2025-03-20 talkingdev

微软推出KBLAM:为LLM引入即插即用的外部知识

微软研究院最近推出了一项名为KBLAM的创新技术,旨在为大型语言模型(LLMs)引入即插即用的外部知识。这项技术的主要亮点在于,它无需重新训练模型即可实现知识的无缝集成,从而支持在线和实时学习。KBLAM的核心优势...

Read More
2025-03-19 talkingdev

在浏览器中训练XGBoost:基于WASM加速的训练系统

这篇博客文章详细介绍了如何构建一个基于浏览器并通过WebAssembly(WASM)加速的XGBoost训练系统。XGBoost作为一种高效的机器学习算法,广泛应用于数据科学和人工智能领域。通过利用WASM技术,开发者能够在浏览器环...

Read More
2025-03-19 talkingdev

[开源] MaTVLM:融合Mamba-2层的混合视觉语言模型

MaTVLM是一个创新的混合视觉语言模型,通过将Mamba-2层集成到预训练的视觉语言模型(VLM)中,显著提升了其收敛速度与整体性能。这一技术突破不仅在学术界引起了广泛关注,也为工业界的应用带来了新的可能性。视觉语...

Read More
2025-03-19 talkingdev

[论文推荐]SmolDocling:极小型高效文档OCR模型

近日,一款名为SmolDocling的新型文档OCR(光学字符识别)模型引发广泛关注。该模型以其极小的规模和高效的性能脱颖而出,成为文档处理领域的最新突破。SmolDocling不仅能够实现闪电般的处理速度,还具备足够的准确...

Read More
2025-03-17 talkingdev

AI巨头效仿DeepSeek,利用“蒸馏”技术打造更经济的模型

近期,OpenAI、微软和Meta等领先的人工智能公司正在通过“蒸馏”技术,利用大型语言模型(LLM)作为“教师”来训练更小的系统,从而创建更具成本效益的AI模型。这种技术通过将复杂模型的知识“蒸馏”到更轻量级的模型中,...

Read More
2025-03-17 talkingdev

[开源] 优化的工作学习代理框架OWL:高效且灵活的智能体构建方案

OWL(Optimized Workforce Learning Agent)是一个新兴的智能体框架,以其高效性和灵活性吸引了业界的广泛关注。该框架不仅在设计上体现出高度的合理性,而且在性能上也表现出色。OWL 允许开发人员通过简单的方式进...

Read More
2025-03-17 talkingdev

[论文推荐] Whisper ASR编码器在多语言说话人识别中的新应用

最近,一项名为WSI的研究将Whisper自动语音识别(ASR)编码器重新应用于多语言说话人识别任务,通过联合损失优化技术实现了显著的性能提升。该技术在多语言和多样化环境中识别说话人时,表现优于现有主流模型如Pyann...

Read More
  1. Prev Page
  2. 32
  3. 33
  4. 34
  5. Next Page