漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-03-04 talkingdev

如何将自己的模型添加到Ollama仓库

Ollama是一个开源的模型库,提供了各种各样的机器学习模型。这个库可以帮助数据科学家和机器学习工程师快速开发和部署模型。但是,有时候我们需要使用自己的模型。在本文中,我们将介绍如何将自己的模型添加到Ollama...

Read More
2024-02-12 talkingdev

本地RAG Cookbook开源

RAG系统是一种广泛应用于数据分析和机器学习中的工具,但是许多人都不知道如何在本地构建和使用它。现在,使用Ollama、pgvector和本地数据,您可以构建一个功能强大的RAG系统,将其部署在您自己的硬件上。这本本地RA...

Read More
2024-02-06 talkingdev

Ollama发布视觉模型本地部署支持

Ollama最近发布了对视觉模型的支持。Llava 1.6版本更新了支持,包括Python和JavaScript包中的视觉功能。

Read More
2024-02-06 talkingdev

ChatLLM for VSCode成为GitHub Copilot的开源替代品

ChatLLM for VS Code是AI辅助自动完成的开源替代品。它现在支持任何Ollama模型,以及使用封闭的API模型。在这个自动化和机器学习越来越流行的时代,ChatLLM提供了一种开源替代方案,为人们提供了更多的选择。

Read More
2024-01-26 talkingdev

Ollama发布Python和JavaScript库,让开发者轻松本地运行LLM

Ollama发布了Python和JavaScript库的初始版本,使得开发者能够在几行代码中将新的和现有的应用程序与Ollama集成。Ollama支持广泛的模型,包括Mistral、Dolphin、Llama2和Orca,使得开发者可以轻松地在本地运行大型语...

Read More
2024-01-12 talkingdev

本地部署AI模型现在也能拥有视觉能力

Ollama现在支持视觉模型啦,这意味着您可以在MacBook Pro上运行Llava,实现最先进的视觉和语言性能。 随着人工智能技术的发展,AI的应用场景越来越广泛。然而,由于许多私人AI的计算能力和算法限制,它们往往无法像...

Read More
2023-12-12 talkingdev

使用Ollama在本地运行LLMs

Ollama就像是llama cpp模型周围的软件包管理器。它具有易用性和质量生活功能,甚至可以在CPU上轻松运行模型。本示例展示了如何运行两个优秀的模型,Dolphin和Samantha,它们是用于对话任务的优秀未过滤模型。

Read More
2023-11-23 talkingdev

用LangChain在Go中集成LLM

LangChain是一款可以方便地将语言模型集成到您的Go程序中的工具。这包括使用Ollama等框架运行本地模型。

Read More
  1. Prev Page
  2. 1
  3. 2
  4. 3
  5. Next Page