漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2023-06-27 talkingdev

LLM Library (GitHub Repo):打造大型机器学习模型优化的可扩展工具箱

LLM Library是一款可扩展、便捷、高效的大型机器学习模型微调工具箱,旨在为整个社区提供用户友好、高速可靠、易于访问的解决方案。

Read More
2023-06-27 talkingdev

Giskard:一个专注于机器学习模型测试的开源框架

Giskard是一个专注于机器学习模型测试的开源框架,适用于从表格模型到LLM(Language Learning Models)的各种模型。该框架提供了一套强大的工具和方法,帮助开发人员测试和验证机器学习模型的准确性和鲁棒性。Giskar...

Read More
2023-06-27 talkingdev

Kor:利用LLMs从文本中提取结构化数据

Kor是一种新的技术,它利用LLMs(Language Learning Models)从文本中提取结构化数据。LLMs是一种能够理解和处理自然语言的模型,它们可以对文本进行深度分析,找出其中的关键信息和结构。Kor通过使用LLMs,可以将文...

Read More
2023-06-23 talkingdev

Tart: 提升LLMs推理能力的新方法

这项研究揭示了大型语言模型(LLMs)在处理不同任务时可以胜任,但在概率推理方面存在困难,从而限制了它们的性能。作者提出了一种名为Tart的解决方案 - 一种在通用方式下训练的推理模块,当与任何现有模型结合时,...

Read More
2023-06-21 talkingdev

Autolabel:自动标注工具开源

Autolabel是一个Python库,可以使用你选择的任何大型语言模型(LLM)来标注、清理和丰富文本数据集。

Read More
2023-06-21 talkingdev

LOMO:高效的LLM训练(GitHub开源)

这项研究介绍了LOw-Memory Optimization(LOMO),这是一种旨在显著减少大型语言模型(LLM)训练所需资源的优化器,目前这一过程需要大量的GPU资源。LOMO的创新方法使得只需使用一台具有8个RTX 3090 GPU(每个具有24...

Read More
2023-06-21 talkingdev

新兴架构为LLM应用提供新机遇

这篇文章由a16z撰写,讨论了一些新兴的LLM应用架构,包括联邦学习、边缘计算和无服务器计算。这些架构为LLM提供了新的扩展方式和更高效的运行方式,可能会在未来推动LLM的广泛应用。

Read More
2023-06-19 talkingdev

百万上下文窗口背后的秘密武器

本文讨论了几种加速大型语言模型(LLM)训练和推理的技术,以使用高达100K个输入令牌的大上下文窗口。这些技术包括:ALiBi位置嵌入,稀疏注意力,闪电注意力,多查询注意力,条件计算以及使用80GB的A100 GPU。

Read More
  1. Prev Page
  2. 89
  3. 90
  4. 91
  5. Next Page