漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-03-18 talkingdev

[开源] CSM语音模型在MLX上的高效运行

近日,Sesame发布了一款1B规模的对话语音生成模型,并在GitHub上开源了其Apple原生MLX版本。该版本专为在MacBook等苹果设备上高效运行而优化,展示了机器学习在移动设备上的应用潜力。MLX是苹果公司推出的机器学习框...

Read More
2025-03-18 talkingdev

[论文推荐]Funsearch:LLM驱动的遗传算法助力数学家解决组合与数论问题

Funsearch是一种基于大型语言模型(LLM)驱动的遗传算法新实现,旨在帮助数学家解决组合和数论问题,而无需具备机器学习的专业知识。这项创新技术通过结合遗传算法的优化能力与LLM的生成能力,为数学研究提供了全新...

Read More
2025-03-17 talkingdev

AI巨头效仿DeepSeek,利用“蒸馏”技术打造更经济的模型

近期,OpenAI、微软和Meta等领先的人工智能公司正在通过“蒸馏”技术,利用大型语言模型(LLM)作为“教师”来训练更小的系统,从而创建更具成本效益的AI模型。这种技术通过将复杂模型的知识“蒸馏”到更轻量级的模型中,...

Read More
2025-03-17 talkingdev

所谓开源AI模型真的开放吗?谷歌和Meta的新模型引发担忧

近年来,许多被标榜为“开源”的AI模型实际上附带了限制性许可条款,这对于依赖这些技术的中小企业可能带来不利影响。近期,谷歌新发布的Gemma 3模型以及Meta的类似产品引起了广泛关注,它们的商用限制条款被认为可能...

Read More
2025-03-17 talkingdev

Luma推出多模态模型预训练新方法:Inductive Moment Matching

Luma首席科学家宋嘉明,作为最早为扩散模型开发加速算法的先驱,近日发布了新的多模态预训练方法——Inductive Moment Matching(IMM)。这一新方法不仅超越了传统扩散模型在样本质量上的表现,还实现了10倍以上的效率...

Read More
2025-03-17 talkingdev

[开源] 优化的工作学习代理框架OWL:高效且灵活的智能体构建方案

OWL(Optimized Workforce Learning Agent)是一个新兴的智能体框架,以其高效性和灵活性吸引了业界的广泛关注。该框架不仅在设计上体现出高度的合理性,而且在性能上也表现出色。OWL 允许开发人员通过简单的方式进...

Read More
2025-03-17 talkingdev

[开源]HiRAG:为大型语言模型检索引入分层知识增强生成方法

HiRAG(Hierarchical Retrieval-Augmented Generation)是一种创新的分层知识增强生成方法,旨在提升检索增强生成(RAG)技术在特定领域任务中的语义理解和索引能力。RAG技术通过将外部知识库与大型语言模型(LLM)...

Read More
2025-03-17 talkingdev

[论文推荐] 无需归一化的Transformer模型

Transformer模型在自然语言处理和其他领域取得了显著的成功,而其核心之一是层归一化(Layer Normalization)。然而,最新的研究提出了一种替代方案:通过精心设计的tanh函数,可以在不依赖层归一化的情况下保持模型...

Read More
  1. Prev Page
  2. 15
  3. 16
  4. 17
  5. Next Page