漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-03-13 talkingdev

Meta建设GenAI基础设施

本文介绍了Meta的两个版本的24,576 GPU数据中心规模集群的详细信息。这些集群支持公司当前和下一代AI模型以及GenAI和其他领域的AI研究和开发。Meta的长期愿景是建立一种人工智能,这种人工智能是开放的,建立在可负...

Read More
2024-03-11 talkingdev

Axolotl开源,本地GPU上训练大模型取得突破

上周,在小型GPU上训练大型模型取得了突破。这个配置展示了如何使用这些技术在消费级硬件上训练Mixtral。

Read More
2024-03-11 talkingdev

Nvidia正式退役GTX品牌,转向RTX

Nvidia正在停产基于图灵架构的GTX GPU,转向将其游戏显卡品牌全部归为“RTX”系列。这一转变意味着GTX系列正在逐步退出历史舞台,未来游戏显卡将专注于支持射线追踪等先进功能。尽管GT系列可能仍将继续存在,但GTX系列...

Read More
2024-03-08 talkingdev

AnswerAI开源新微调工具,可在消费级GPU上训练70B参数模型

Answer AI发布了一款新的FSDP/QLoRA训练工具,可在消费级GPU上训练70B参数模型。该公司开源了代码,并使其易于本地运行或在runpod上运行。

Read More
2024-03-07 talkingdev

初创公司在荒野训练LLM模型

Reka的创始人、著名GPU评论家Yi Tay在一篇博客文章中概述了他们在谷歌之外训练极强语言模型的经验。主要的挑战来自于集群和硬件的不稳定性,他们还发现软件的成熟度也是一个挑战。尽管如此,他们还是成功地训练出了...

Read More
2024-03-07 talkingdev

Meta巨型AI模型,以驱动其整个视频生态系统

Meta的技术路线图一直延伸到2026年,其中之一是开发一种AI推荐模型,以推动公司的Reels短视频服务和更传统的长视频。目前,该公司为其每个产品使用单独的模型。新的推荐系统将为用户提供更有吸引力和相关的内容。Met...

Read More
2024-03-04 talkingdev

Daft:云端大数据处理的分布式查询引擎

Daft是一种专门为云端大数据处理而设计的分布式查询引擎。它具有熟悉的交互式API、强大的查询优化器、数据目录集成、丰富的多模式类型系统等特点。Daft的设计目的是能够处理任何数据,它专为大型机器集群上的交互式...

Read More
2024-03-01 talkingdev

Modal推出Websockets

大多数无服务器GPU提供需要每个模型推论一个POST请求。但是,在您想要流模型输出的情况下,这是一个挑战。Websockets使流媒体成为可能。

Read More
2024-02-29 talkingdev

字节跳动开发 MegaScale 系统,可用于训练大型语言模型

据悉,字节跳动开发了一种名为 MegaScale 的系统,可用于训练大规模并行的大型语言模型。该系统成功地在 12,288 个 GPU 上训练了一个 175B 的语言模型,达到了 55.2% 的模型 FLOPs 利用率,相当惊人。此外,字节跳动...

Read More
2024-02-27 talkingdev

微软打造AI服务器硬件,削减对英伟达的依赖

据报道,微软正在打造自己的人工智能服务器硬件,以减少对英伟达的依赖。目前,微软在其云计算平台Azure上使用英伟达的GPU加速器来提高人工智能处理速度。不过,为了降低成本和提高灵活性,微软现在正在开发自己的AI...

Read More
  1. Prev Page
  2. 8
  3. 9
  4. 10
  5. Next Page