漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2023-08-17 talkingdev

深度解析:transformer模型训练背后的数学原理

本文将深入探讨热门的《transformer数学101》文章,以及基于transformer架构的高性能分布式训练。变形金刚模型已经在深度学习领域广泛应用,其强大的处理能力和优异的性能表现赢得了业界的一致好评。然而,对于这种...

Read More
2023-08-14 talkingdev

机器学习模型是记忆还是泛化?揭秘模型训练动态

本文探讨了一个微型模型的训练动态,并反向工程了它找到的解决方案。这为我们揭示了一个令人兴奋的新兴领域——机械可解释性。机器学习模型在工作时,是通过记忆数据还是通过泛化理解进行推理?这是一个长期存在且至关...

Read More
2023-08-11 talkingdev

多家媒体要求制定AI训练数据新规

近日,多家媒体组织联名发布公开信,呼吁全球立法者考虑制定保护版权的规定,针对用于训练生成性AI模型的数据。他们要求在使用数据进行训练之前,必须对训练数据集进行透明化,并获取权利所有者的同意。公开信还要求...

Read More
2023-08-09 talkingdev

HuggingFace联手AWS和Nvidia云,一键进行模型训练

近日,知名开源人工智能库HuggingFace宣布与AWS和Nvidia展开合作,为平台带来一键式训练功能。用户只需上传数据,即可直接在hub上对先进的模型进行微调。这一创新举措无疑将为AI研究者和开发者提供极大的便利,不再...

Read More
2023-08-02 talkingdev

Nvidia H100 GPUs: AI产业供需矛盾

人工智能产业的发展正受到GPU供应不足的制约。这种短缺导致产品推出和模型训练等方面受到各种限制。一旦供需平衡,事情就会加速发展。本文将探讨导致供需矛盾的原因,持续时间以及解决方法。

Read More
2023-07-24 talkingdev

纯C语言实现的Llama 2训练与推理库开源

Andrej Karpathy 编写了一个受到llama.cpp极大启发的酷炫库,可以用于纯C语言训练和推理新的Llama 2模型。这个库对于那些对底层编程感兴趣的人来说是一个很好的资源(就像他的所有代码一样)。GPT4在编写过程中给予...

Read More
2023-07-17 talkingdev

通过长步距优化,证明了收敛速度的显著提升

优化方法的收敛速度是一个数学极限,它决定了在该优化方法指引下,模型找出最佳解决方案的快慢。最新研究发现,周期性学习率可以通过偶尔采取巨大步长得到改进。这项研究极具说服力,它揭示了通过增加优化步骤长度,...

Read More
2023-07-06 talkingdev

NanoT5:新一代高效训练模型的开源项目

我们之前在新闻通讯中提到过这个项目,但它刚刚进行了升级。受到Andrej的优秀NanoGPT项目的启发,NanoT5项目可以以比T5论文性能更快150倍的速度训练模型。如果你关心从头开始训练模型,那么这个项目绝对值得一看。

Read More
  1. Prev Page
  2. 17
  3. 18
  4. 19
  5. Next Page