漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-01-12 talkingdev

本地部署AI模型现在也能拥有视觉能力

Ollama现在支持视觉模型啦,这意味着您可以在MacBook Pro上运行Llava,实现最先进的视觉和语言性能。 随着人工智能技术的发展,AI的应用场景越来越广泛。然而,由于许多私人AI的计算能力和算法限制,它们往往无法像...

Read More
2024-01-12 talkingdev

GitHub Actions成为分时共享超级计算机

GitHub Actions可以用于批处理作业。开发人员可以将工作提交到服务中,稍后异步地接收结果。actions-batch是一个命令行工具,本质上是将GitHub Actions转换为分时计算机的API。它创建新的GitHub存储库,编写在提交时...

Read More
2024-01-09 talkingdev

对比激活下的Steering Llama 2技术

有很多方式可以对齐语言模型,例如SFT、LoRa、RLHF、DPO、Prompting和Threatening。本研究提出使用负嵌入加到偏置项中,以将模型生成推向期望的结果。

Read More
2024-01-03 talkingdev

Llamafile-将模型和推理代码嵌入单个文件

Llamafile是一个将模型和推理代码嵌入单个便携式可执行文件的项目。此博客探讨了如何将命令行输出导入语言模型以进行进一步处理。

Read More
2023-12-25 talkingdev

开源Llama模型工具集,提高深度学习效率

Facebook发布了一组工具、资源和示例,用于使用Llama模型系列。该工具集可帮助深度学习从业人员更高效地进行模型训练和应用。Llama模型系列由Facebook AI Research开发,已被广泛用于计算机视觉领域。这个工具集将包...

Read More
2023-12-12 talkingdev

使用Ollama在本地运行LLMs

Ollama就像是llama cpp模型周围的软件包管理器。它具有易用性和质量生活功能,甚至可以在CPU上轻松运行模型。本示例展示了如何运行两个优秀的模型,Dolphin和Samantha,它们是用于对话任务的优秀未过滤模型。

Read More
2023-12-11 talkingdev

Llama 2模型成功在MLX上运行

仅仅在苹果公司推出MLX框架的一天后,人们已经成功将Llama 2模型运行在了新框架上。据悉,这是由于MLX框架的开放性,使得用户可以更加方便地进行模型的迁移和使用。同时,这也展示了MLX框架在机器学习领域的强大性能...

Read More
2023-11-30 talkingdev

llamafile:运行在多个CPU微架构上的单文件分发工具

近日,llamafile发布了新的GitHub Repo,它是一种新的单文件分发工具,允许任何人使用单个文件分发和运行LLMs。LLMs可以在多个CPU微架构上运行,而不需要用户在每个平台上编译。这种工具可以节省开发者的时间和精力...

Read More
2023-11-23 talkingdev

3分钟内部署任何GGUF模型

使用llama.cpp和GGUF服务器,您可以非常快速地部署一个服务于HuggingFace托管模型的端点。这意味着您可以在几分钟内将HuggingFace的最新自然语言处理模型部署到生产环境中。

Read More
2023-11-23 talkingdev

用LangChain在Go中集成LLM

LangChain是一款可以方便地将语言模型集成到您的Go程序中的工具。这包括使用Ollama等框架运行本地模型。

Read More
  1. Prev Page
  2. 9
  3. 10
  4. 11
  5. Next Page