漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2023-10-19 talkingdev

BitNet新设计开源:更高效的语言模型架构

研究人员开发出BitNet,这是一种新的大型语言模型设计,使用更少的能量和内存。BitNet使用一种新的技术来平衡模型的准确性和计算效率,同时减少了对大量数据的依赖。这一新设计的目的是为了降低大型语言模型的计算成...

Read More
2023-10-19 talkingdev

Adept发布多模式LLM

Adept发布了一个极其简单(没有图像编码器)而且非常高效(超过了13B模型)的多模式模型。这篇文章概述了Adept如何评估模型的性能以及一些模型的细节。

Read More
2023-10-06 talkingdev

程序员应了解的云计算成本

本文列出了程序员应了解的云计算成本清单,并对成本进行了详细的分解。了解这些数字将有助于程序员为各种不同的项目进行快速成本估算。他们只需要了解项目的架构和规模,就可以计算出一个大致的成本,而不需要任何复...

Read More
2023-10-05 talkingdev

Pytorch发布新的分布式Shampoo优化器(GitHub Repo)

人工智能系统由架构、数据和训练方法三部分组成,优化器则是训练方法中的重要组成部分。目前,Adam优化器因其“即插即用”的特性而深受大众喜爱。然而,LION和Shampoo这两种优化器逐渐获得了人们的认可。来自Meta的Pyt...

Read More
2023-09-20 talkingdev

RabbitMQ与Kafka - 架构师的抉择(第一部分)

RabbitMQ和Kafka是两个流行的消息代理平台,被广泛应用于大规模分布式系统中。然而,架构师在选择哪个平台来满足他们的需求时,常常会感到困惑。本系列文章将探讨RabbitMQ和Kafka的优缺点,帮助架构师做出明智的选择...

Read More
2023-09-18 talkingdev

IBM正式挑战语言模型领域,推出开源MoE模型

IBM近日发布了一系列混合专家模型(Mixture-of-Experts,MoE),并公开了它们的架构和部分代码。MoE模型是一种稀疏模型,意味着在不牺牲准确性的情况下,可以节省计算资源。然而,训练这种模型却颇具挑战性。这次IBM...

Read More
2023-09-15 talkingdev

构建基于RAG的LLM应用程序的全面指南

最近发布的GitHub仓库为开发者提供了一份详尽的指南,指导如何构建基于RAG(Retrieval Augmented Generation)的LLM(Language Learning Machine)应用程序。该指南详细介绍了从设计到实施的全过程,包括选择合适的...

Read More
2023-09-13 talkingdev

千万微服务之死

并非每个服务都需要是“微”的。有些初创公司只需要“服务”就能很好地运作。从单体架构开始没问题,只要从单体架构中分支出来的服务能够处理清晰可识别和可单独扩展的负载。简单的方法通常是更合适的选择。

Read More
  1. Prev Page
  2. 62
  3. 63
  4. 64
  5. Next Page