漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2023-12-12 talkingdev

使用Ollama在本地运行LLMs

Ollama就像是llama cpp模型周围的软件包管理器。它具有易用性和质量生活功能,甚至可以在CPU上轻松运行模型。本示例展示了如何运行两个优秀的模型,Dolphin和Samantha,它们是用于对话任务的优秀未过滤模型。

Read More
2023-11-23 talkingdev

微软和英伟达简化了在Windows上运行AI模型的过程

微软宣布了Windows AI Studio,这是一个供开发人员访问和配置AI模型的中心,提供了来自Azure AI Studio和Hugging Face的工具以及模型配置界面和性能测试模板等功能。英伟达更新了其TensorRT-LLM,支持GeForce RTX 30...

Read More
2023-11-17 talkingdev

DeepMind最新气象预测模型开源

DeepMind近年来一直在研究气象预测。其最新模型基于图神经网络,对于10天的预测非常准确。DeepMind发布了代码和权重,让用户可以在本地运行(如果有卫星数据)。该模型的预测准确度是当前最高水平。

Read More
2023-11-14 talkingdev

基于RWKV可在本地运行的AI小镇开源

AI 小镇是一个令人惊叹的实验,在这里,数百个代理在语言模型的提示状态下过着日常生活。 RWKV 模型是一种线性语言模型,需要比标准 Transformer 更少的资源。此存储库使用这个更便宜的模型在您的本地计算机上运行 A...

Read More
2023-10-23 talkingdev

深度探讨:构建基于LLM的Web应用程序

大多数组织机构没有资源在GPU上运行大型模型,但是有一个强大的开源推动力量在本地运行这些模型。本文探讨了这种推动力量以及LangChain + Ollama集成。 LLN(Local Low Rank Normalization)是一种用于处理基于卷积...

Read More
2023-10-20 talkingdev

论点:小型LLMs的优势

小型LLMs可能会超越大型LLMs,因为它们具有更快的训练速度、能够在没有专门硬件的情况下本地运行、具有经济性、延迟较低、部署容易、可能具有更好的可解释性和可重现性等优势。

Read More
2023-06-19 talkingdev

以低廉的价格运行A100

Nvidia A100是市场上最强大的GPU之一。它们已被用于训练迄今为止最流行的模型之一。它们是数据中心的GPU,通常意味着您无法在自己的硬件上运行它们。本文探讨了如何以几千美元的价格自己组装一个本地运行的A100超级...

Read More
2023-06-07 talkingdev

GGML推出,以纯C语言框架降低本地运行成本

GGML以纯C语言编写的框架,让用户可以在MacBook电脑上轻松运行大型语言模型,这种模型通常在本地运行成本较高。目前,这一框架主要被业余爱好者使用,但在企业模型部署方面也有广泛的应用前景。 核心要点: - GGML...

Read More
  1. Prev Page
  2. 2
  3. 3
  4. 4
  5. Next Page