漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2023-07-04 talkingdev

tinyvector:一个快速高效的开源向量数据库

tinyvector是一个小巧而快速的向量嵌入数据库。它非常易于定制,并且在小到中等规模的数据集上具有与先进的向量数据库相当的速度。tinyvector可以轻松扩展到超过1亿个向量维度而不会出现问题。

Read More
2023-07-03 talkingdev

Filtered Guided Diffusion:高效的图生成图方法(GitHub仓库)

这项研究提出了一种名为滤波引导扩散(FGD)的方法,可以在不需要额外训练或更改底层模型的情况下增强图像翻译。FGD根据先前步骤调整扩散过程,并在结构指导和性能方面提供了显著的改进。

Read More
2023-06-30 talkingdev

使用OpenAI、LlamaCpp和GPT-4-All,与代码库和文档的问答工具开源

近日,一款名为Talk-Codebase的新工具在GitHub上发布了。该工具利用OpenAI、LlamaCpp和GPT-4-All技术,实现了与代码库和文档进行交流的功能。通过这款工具,开发人员可以直接与代码库和文档进行对话,提问、查找信息...

Read More
2023-06-30 talkingdev

MusicGen: 简化音乐生成的一种新方法开源

Audiocraft推出MusicGen,这是一种简化和增强音乐生成的模型。这种单阶段的自回归Transformer模型不需要像之前的方法那样进行自监督语义表示,通过并行预测所有码本,它更高效地生成音乐,从而每秒音频的步骤更少。

Read More
2023-06-27 talkingdev

LLM Library (GitHub Repo):打造大型机器学习模型优化的可扩展工具箱

LLM Library是一款可扩展、便捷、高效的大型机器学习模型微调工具箱,旨在为整个社区提供用户友好、高速可靠、易于访问的解决方案。

Read More
2023-06-27 talkingdev

Kor:利用LLMs从文本中提取结构化数据

Kor是一种新的技术,它利用LLMs(Language Learning Models)从文本中提取结构化数据。LLMs是一种能够理解和处理自然语言的模型,它们可以对文本进行深度分析,找出其中的关键信息和结构。Kor通过使用LLMs,可以将文...

Read More
2023-06-26 talkingdev

ExLlama:HF Transformers实现的内存更高效的量化权重重写

ExLlama是HF Transformers实现的一种内存更高效的量化权重重写。这个重写的目的是为了在使用量化权重时能够更好地节省内存。Llama是HF Transformers的一个开源项目,但在使用量化权重时存在内存占用较高的问题。ExLl...

Read More
2023-06-23 talkingdev

FlagAI:快速、易用且可扩展的大规模通用人工智能模型工具包开源

FlagAI(Fast Large-scale General AI models)是一个快速、易于使用且可扩展的大规模模型工具包。它提供了一整套功能强大的工具和库,用于开发和部署大规模人工智能模型。FlagAI的设计目标是使开发人员能够快速构建...

Read More
  1. Prev Page
  2. 149
  3. 150
  4. 151
  5. Next Page