漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-07-15 talkingdev

AuraFlow:基于Fal训练的新开放模型

AuraFlow是由Fal训练的全新开放模型。这款模型采用了muP进行训练,是一款拥有58亿参数的模型。AuraFlow的开发标志着Fal在人工智能领域的又一次重大突破,展示了其强大的技术实力和深厚的研发能力。此次训练使用的muP...

Read More
2024-07-10 talkingdev

深度了解Tinygrad:AI编译器的全新引领者

Tinygrad是一款用于训练深度学习模型的工具包。这套笔记是AI编译器的极佳入门读物,更是为深入了解Tinygrad内部机制做好准备。Tinygrad以其精简的设计和高效的性能,为AI领域带来了新的可能性。无论你是AI领域的专家...

Read More
2024-06-26 talkingdev

AI与Morph Labs联手优化信息检索增强型生成模型

近日,AI与Morph Labs联合发布了一篇关于信息检索增强型生成(RAG)模型微调的优秀博客文章。在文章中,他们展示了一些合成数据的使用情况。信息检索增强型生成模型是一种新型的深度学习模型,它结合了信息检索技术...

Read More
2024-06-12 talkingdev

Meta如何规模化训练大型语言模型

近日,Meta公司公布了一篇关于其如何规模化训练大型语言模型的论文。该论文详细介绍了Meta公司的训练方法,该方法可以同时训练多达14亿个参数的语言模型。该规模远超以往的语言模型训练规模,并且可以在更短的时间内...

Read More
2024-06-11 talkingdev

Coqui.ai TTS:一款用于文本转语音的深度学习工具包

Coqui.ai TTS是一款用于文本转语音的深度学习工具包,它支持多种语言和声音风格,并可在较低的计算资源上实现高质量的语音合成。该工具包基于TensorFlow 2和PyTorch,是一款开源、易于使用的工具,可帮助研究人员和...

Read More
2024-06-04 talkingdev

FineWeb:高质量网络规模文本数据集发布

训练语言模型需要数万亿高质量的标记数据。关于这些数据集构建的信息大多未公开。然而,FineWeb团队在一篇精彩的博文中讨论了不同的数据集清理和过滤策略。文章的作者们发布了许多顶级的数据集,用于语言模型训练。...

Read More
2024-06-03 talkingdev

muP:提升稀疏模型训练性能的革命性工具

muP 是一种被所有前沿模型实验室广泛使用的强大工具,用于将小模型上调优的超参数转移到更大、更昂贵的训练任务中。本文探讨了如何将这种技术应用于稀疏模型,从而显著提升训练性能,同时降低计算成本。通过muP,研...

Read More
2024-05-28 talkingdev

深度学习框架Tinygrad 0.9.0正式发布

深度学习框架Tinygrad 0.9.0正式发布。Tinygrad是一个轻量级的深度学习框架,支持Python和JavaScript。Tinygrad 0.9.0增加了对自定义函数的支持,以及其他一些性能和稳定性的改进。它的设计使其非常适合在边缘设备上...

Read More
2024-05-16 talkingdev

EfficientTrain++,提升基础模型训练速度新策略

近日,EfficientTrain++推出了一种新颖的课程学习策略,显著减少了主要视觉模型如ResNet和Swin在ImageNet数据库上的训练时间。据悉,这种新的学习策略最多可以将模型训练时间缩短三倍。EfficientTrain++的这一突破不...

Read More
2024-05-13 talkingdev

论文:自动检测大型语言模型中的未充分训练的标记

语言模型依赖于单独训练的标记生成器。这些标记生成器可能会产生在语言模型训练过程中从未见过的标记。即使在最强大的现代语言模型中,也存在许多此类标记。本文探讨了这种现象,并提出了识别和处理这些标记的方法。...

Read More
  1. Prev Page
  2. 2
  3. 3
  4. 4
  5. Next Page