漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2023-06-05 talkingdev

开源项目:AWQ技术让大型AI模型更小更快

最近,一篇名为“Activation-aware Weight Quantization (AWQ)”的论文在GitHub上开源。这篇论文提出了一种新的方法,可以更高效地压缩大型语言模型(LLMs),克服了高硬件要求和慢速令牌生成的问题。AWQ可以选择性地...

Read More
2023-06-02 talkingdev

加速MPT 65K上下文模型

最近MosaicML MPT模型仍然备受欢迎。其中一个重要的贡献是“Storywriter”模型,它可以在上下文中使用高达65k个标记。但是,使用这个模型进行推理非常缓慢。通过添加键/值缓存,我们可以将生成速度提高近10倍。 ## 内...

Read More
2023-06-02 talkingdev

GitHub推出GPT4Tools:控制视觉基础模型

近日,GitHub推出了GPT4Tools系统,该系统能够通过分析语言内容,管理多个视觉基础模型,使其能够根据用户在对话中的需求自动决定、控制和使用不同的模型。与众不同的是,它还可以通过简单的自我指导和LoRA方法,让...

Read More
2023-06-01 talkingdev

本地GPT:使用Vicuna-7B模型和InstructorEmbeddings实现离线问答

近日,开发者们在GitHub上发布了一个名为localGPT的Repo,该项目利用Vicuna-7B模型和InstructorEmbeddings实现了离线文档问答功能。以下是该项目的主要亮点: - 使用Vicuna-7B模型:该模型是由EleutherAI开发的巨型...

Read More
2023-06-01 talkingdev

Macaw-LLM:将图像、视频、音频和文本数据结合的多模态语言模型

在 CLIP、Whisper 和 LLaMA 的基础上,Macaw-LLM 探索性地开发了一种多模态语言模型,无缝结合了图像、视频、音频和文本数据。 以下是该新闻的三个核心要点: - Macaw-LLM 是一种多模态语言模型 - 它结合了图像、...

Read More
2023-06-01 talkingdev

竞相研发更小的人工智能

近日,BabyLM挑战赛成为了一项旨在开发更小但仍然有效的人工智能模型的举措。由于大型LLM模型的缺点,如更大的模型需要处理能力,而只有少数公司拥有这种能力,因此推动开发更小的AI模型已经成为了当前的趋势。 ###...

Read More
2023-06-01 talkingdev

Langchain课程(GitHub Repo)现已推出

Langchain课程是一个旨在帮助您快速上手使用Langchain的强大开源框架开发应用程序的课程,该框架可以使用大型语言模型(LLMs)如ChatGPT。 ## 核心要点 以下是该新闻的三个核心要点: - Langchain课程现已在GitHu...

Read More
2023-06-01 talkingdev

使用GitHub仓库创建时尚3D头像

利用预训练的图像-文本扩散模型和生成对抗网络(GAN)进行训练,作者提出了一种创新的方法来创建高质量、个性化的3D头像。通过使用这些先进的模型,我们可以创建各种风格的多视角头像图像,从而实现多样性。 ## 核...

Read More
  1. Prev Page
  2. 409
  3. 410
  4. 411
  5. Next Page