漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2023-05-26 talkingdev

如何在自定义数据集上优化LLMs

在本指南中,我们将介绍如何使用Lit-Parrot对自定义数据集进行LLMs的微调。Lit-Parrot是一个基于nanoGPT的实现GPT-NeoX模型的工具,支持StableLM、Pythia和RedPajama-INCITE模型权重。 下面是三个重点: - Lit-Par...

Read More
2023-05-26 talkingdev

GitHub开源项目 Gorilla 让大语言模型更好地使用API

## 新闻内容: GitHub开源项目Gorilla可以通过调用API让大语言模型使用工具。给定一个自然语言查询,Gorilla会提供语义和句法正确的API以调用。 ## 新闻要点: - Gorilla是一个开源项目,可以帮助大语言模型更好地...

Read More
2023-05-26 talkingdev

技术新闻:使用文本预热启动来提高语音语言模型性能

TWIST是一种新的训练语音语言模型(SpeechLMs)的方法,它使用预先训练的文本模型来进行热启动。该方法优于从头开始训练,经验分析强调了模型和数据集规模的重要性。这项研究介绍了迄今为止最大的SpeechLM,并引入了...

Read More
2023-05-24 talkingdev

利用LLMs进行视频分析的工具

近日,一种名为VideoLLM的系统利用语言处理模型的强大能力,将所有视频输入转换为一种可以更高效地分析的语言类型。经过在多个数据集上成功测试,VideoLLM证明它可以处理各种任务,表明语言模型的推理能力可以有效地...

Read More
2023-05-24 talkingdev

Scikit-LLM: 将强力语言模型与scikit-learn集成,提升文本分析能力

#### 新闻摘要: - Scikit-LLM将强大的语言模型与scikit-learn无缝集成,提供强大的文本分析能力。 - 开发者可以轻松地使用ChatGPT等语言模型来处理自然语言文本。 - Scikit-LLM使得文本分析任务更加高效和准确。...

Read More
2023-05-23 talkingdev

探索注意力机制和Transformer技术

注意力机制和Transformer技术是现代语言模型更加高效的关键,本文将深入探讨它们的作用。 ## 核心要点 - 注意力机制是一种机器学习技术,可使模型更加聚焦于输入中有用的部分。 - Transformer是一种基于注意力机制...

Read More
2023-05-23 talkingdev

在数据库场景下使用私有语言模型的项目DB-GPT发布

DB-GPT是一个项目,旨在为所有数据库场景构建完整的私有语言模型解决方案。它旨在确保敏感数据和环境完全受控,以避免大型语言模型造成的数据隐私泄露或安全风险。DB-GPT支持本地部署,以确保模型始终是私有的、安全...

Read More
2023-05-22 talkingdev

利用真实世界知识提升语言模型表现:新的微调方法

研究人员设计了一种新方法,使用虚拟模拟器为语言模型提供“具身体验”,以培养其对真实世界的理解和规划能力。这种新方法显著提高了模型的能力,使得小型模型的表现与 ChatGPT 等大型模型相当甚至更好。 ## 三个核心...

Read More
  1. Prev Page
  2. 154
  3. 155
  4. 156
  5. Next Page