漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2023-08-02 talkingdev

Nvidia H100 GPUs: AI产业供需矛盾

人工智能产业的发展正受到GPU供应不足的制约。这种短缺导致产品推出和模型训练等方面受到各种限制。一旦供需平衡,事情就会加速发展。本文将探讨导致供需矛盾的原因,持续时间以及解决方法。

Read More
2023-07-24 talkingdev

纯C语言实现的Llama 2训练与推理库开源

Andrej Karpathy 编写了一个受到llama.cpp极大启发的酷炫库,可以用于纯C语言训练和推理新的Llama 2模型。这个库对于那些对底层编程感兴趣的人来说是一个很好的资源(就像他的所有代码一样)。GPT4在编写过程中给予...

Read More
2023-07-17 talkingdev

通过长步距优化,证明了收敛速度的显著提升

优化方法的收敛速度是一个数学极限,它决定了在该优化方法指引下,模型找出最佳解决方案的快慢。最新研究发现,周期性学习率可以通过偶尔采取巨大步长得到改进。这项研究极具说服力,它揭示了通过增加优化步骤长度,...

Read More
2023-07-06 talkingdev

NanoT5:新一代高效训练模型的开源项目

我们之前在新闻通讯中提到过这个项目,但它刚刚进行了升级。受到Andrej的优秀NanoGPT项目的启发,NanoT5项目可以以比T5论文性能更快150倍的速度训练模型。如果你关心从头开始训练模型,那么这个项目绝对值得一看。

Read More
2023-06-22 talkingdev

探讨AI训练的巨大工作量

本文讨论了训练人工智能的无形劳动力。这些工人被称为数据标注员,他们负责标注用于训练AI模型的数据。这项工作通常是重复而低薪的,但对于AI的发展至关重要。

Read More
2023-06-21 talkingdev

LOMO:高效的LLM训练(GitHub开源)

这项研究介绍了LOw-Memory Optimization(LOMO),这是一种旨在显著减少大型语言模型(LLM)训练所需资源的优化器,目前这一过程需要大量的GPU资源。LOMO的创新方法使得只需使用一台具有8个RTX 3090 GPU(每个具有24...

Read More
2023-06-19 talkingdev

百万上下文窗口背后的秘密武器

本文讨论了几种加速大型语言模型(LLM)训练和推理的技术,以使用高达100K个输入令牌的大上下文窗口。这些技术包括:ALiBi位置嵌入,稀疏注意力,闪电注意力,多查询注意力,条件计算以及使用80GB的A100 GPU。

Read More
2023-06-12 talkingdev

新加坡推出多模态文本/视觉模型

新闻概要: - 新加坡研究人员收集了一个新的视觉指导调整数据集。 - 他们训练了一个多模态文本/视觉模型,并在过程中进行了一些算法调整。 - 该模型的演示令人印象深刻,特别是在苹果发布增强现实技术后,展示了人...

Read More
2023-06-08 talkingdev

CodeTF库发布,助力代码智能化

## 新闻内容: GitHub开源社区发布了一款名为CodeTF的Python Transformer库,致力于提高代码智能化的水平,为使用者提供了一个训练与推理的平台,可以轻松实现代码智能化任务,如代码摘要、翻译、生成等。 CodeTF...

Read More
2023-05-30 talkingdev

新款100TB GPU系统发布!

近日,全新的DGX系统面世了!节点之间的NVLink连接创造了一个由256个Grace CPU(每个CPU拥有480GB的LPDDR5内存)和256个Hopper GPU(每个GPU拥有96GB的HBM3内存)组成的系统。每个GPU可以以900Gbps的速度直接访问任...

Read More
  1. Prev Page
  2. 10
  3. 11
  4. 12
  5. Next Page