漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-02-12 talkingdev

本地RAG Cookbook开源

RAG系统是一种广泛应用于数据分析和机器学习中的工具,但是许多人都不知道如何在本地构建和使用它。现在,使用Ollama、pgvector和本地数据,您可以构建一个功能强大的RAG系统,将其部署在您自己的硬件上。这本本地RA...

Read More
2024-02-06 talkingdev

Ollama发布视觉模型本地部署支持

Ollama最近发布了对视觉模型的支持。Llava 1.6版本更新了支持,包括Python和JavaScript包中的视觉功能。

Read More
2024-02-06 talkingdev

ChatLLM for VSCode成为GitHub Copilot的开源替代品

ChatLLM for VS Code是AI辅助自动完成的开源替代品。它现在支持任何Ollama模型,以及使用封闭的API模型。在这个自动化和机器学习越来越流行的时代,ChatLLM提供了一种开源替代方案,为人们提供了更多的选择。

Read More
2024-02-01 talkingdev

论文:SliceGPT高效简化大型语言模型的新方法

SliceGPT引入了一种新的后训练稀疏化方案,以减少大型语言模型的资源需求。通过将权重矩阵替换为较小的矩阵并减少嵌入维度,它可以在主要模型(如LLAMA2-70B和OPT 66B)中删除高达25%的模型参数,同时保留高达99%的...

Read More
2024-01-31 talkingdev

Meta发布CodeLlama 70B模型

Meta的新模型已经在大量代码上进行了精调和指令调整。它们在HumanEval测试中表现出色,在某些方面接近于GPT-4。这些模型可在Meta许可下和HuggingFace上使用。

Read More
2024-01-30 talkingdev

用纯 Rust 运行 Mamba大模型推理

Llama 模型的努力启发,这个项目使用纯 Rust 在 CPU 上运行 Mamba 推理。

Read More
2024-01-26 talkingdev

Ollama发布Python和JavaScript库,让开发者轻松本地运行LLM

Ollama发布了Python和JavaScript库的初始版本,使得开发者能够在几行代码中将新的和现有的应用程序与Ollama集成。Ollama支持广泛的模型,包括Mistral、Dolphin、Llama2和Orca,使得开发者可以轻松地在本地运行大型语...

Read More
2024-01-22 talkingdev

Stablecode3B:比7B的CodeLlama更出色,可在MacBook上本地运行

据悉,最近发布的Stablecode 3B模型表现出色,其强大的性能超过了7B的CodeLlama模型。同时,该模型的尺寸足够小,能够在MacBook上本地运行,无需像7B模型一样需要大量的计算资源。这一模型的发布,标志着技术领域的...

Read More
2024-01-12 talkingdev

本地部署AI模型现在也能拥有视觉能力

Ollama现在支持视觉模型啦,这意味着您可以在MacBook Pro上运行Llava,实现最先进的视觉和语言性能。 随着人工智能技术的发展,AI的应用场景越来越广泛。然而,由于许多私人AI的计算能力和算法限制,它们往往无法像...

Read More
2024-01-12 talkingdev

GitHub Actions成为分时共享超级计算机

GitHub Actions可以用于批处理作业。开发人员可以将工作提交到服务中,稍后异步地接收结果。actions-batch是一个命令行工具,本质上是将GitHub Actions转换为分时计算机的API。它创建新的GitHub存储库,编写在提交时...

Read More
  1. Prev Page
  2. 10
  3. 11
  4. 12
  5. Next Page