漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2023-06-19 talkingdev

百万上下文窗口背后的秘密武器

本文讨论了几种加速大型语言模型(LLM)训练和推理的技术,以使用高达100K个输入令牌的大上下文窗口。这些技术包括:ALiBi位置嵌入,稀疏注意力,闪电注意力,多查询注意力,条件计算以及使用80GB的A100 GPU。

Read More
2023-06-19 talkingdev

大型语言模型能否成为有效的教师?(GitHub仓库)

本研究调查了强大的语言模型是否能够教授较不先进的人工智能系统并提高其性能。研究提出了两个人工智能之间的“学生-教师”关系,并探讨了“教师”人工智能应该在什么时候、如何以及解释给“学生”人工智能,以提升其能力...

Read More
2023-06-13 talkingdev

揭秘大型语言模型中的偏见

近日,研究人员提出了一种名为“对比输入解码(CID)”的新方法,旨在通过生成反映两个略有不同输入的独特特征的文本来揭示AI语言模型对微小变化的反应,从而使其响应更加易于理解和管理。这对于确保公平性和实用性至...

Read More
2023-06-12 talkingdev

新技术SpQR:高效LLM压缩技术

近日,研究人员提出了一种名为Sparse-Quantized Representation(SpQR)的新技术,可以实现对大型语言模型(LLMs)的几乎无损压缩,克服了量化带来的精度损失。这项技术使得强大的LLMs可以在像笔记本电脑和手机这样...

Read More
2023-06-09 talkingdev

深入理解GPT分词器

## 概述 本文讨论GPT分词器,这是大型语言模型用于将文本转换为预测所需的标记。我们介绍了一个Observable笔记本工具,它允许用户将文本转换为标记,反之亦然,并在完整的标记表中运行搜索。 ## 核心要点 - GPT分词...

Read More
2023-06-08 talkingdev

自我修复代码是软件开发的未来

内容概要: - 多家公司正在使用人工智能进行软件开发,大型语言模型可以通过自我反思提高其输出。 - 越来越多的研究表明,使用更有指导性的自回归方法来使用LLM可以带来更好的结果。 - LLM的快速生成大量代码的能力...

Read More
2023-06-07 talkingdev

GGML推出,以纯C语言框架降低本地运行成本

GGML以纯C语言编写的框架,让用户可以在MacBook电脑上轻松运行大型语言模型,这种模型通常在本地运行成本较高。目前,这一框架主要被业余爱好者使用,但在企业模型部署方面也有广泛的应用前景。 核心要点: - GGML...

Read More
2023-06-07 talkingdev

利用软提示改善LLMs的指令传达:InstructZero

研究团队提出了InstructZero,一种新的方法,可以使大型语言模型(LLMs)更好地遵循指令,即使您无法直接调整它们(即“黑盒”模型)。该方法使用“软提示”进行优化,以创建更好的指令。我们的测试表明,在不同任务和各...

Read More
  1. Prev Page
  2. 51
  3. 52
  4. 53
  5. Next Page