漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-03-05 talkingdev

使用 Unsolth 加速 Gemma 训练速度 2.4 倍

Unsloth 项目旨在重写训练和推理语言模型的重要内核。它发布了一个示例,其中包括 Google 开源的 Gemma 模型的代码。通过使用 Unsolth,Gemma 的训练速度可以提高 2.4 倍。这个项目的目标是通过修改模型的内核,实现...

Read More
2024-03-04 talkingdev

Bonito开源模型,将未标注文本转换为定制训练数据集

Bonito是一种开源模型,旨在将未注释的文本转换为定制的训练数据集,从而增强大型语言模型对专业任务的适应性,而不需要预先存在的注释。

Read More
2024-03-04 talkingdev

探索LLMa的视频理解技术

这个仓库包含了一系列有用的资源,重点是大型语言模型在视频理解领域的应用。这些资源包括论文、代码和数据集,可以帮助研究人员和工程师更好地理解和应用LLMa模型。LLMa模型是一种基于自然语言处理的技术,在视觉和...

Read More
2024-03-04 talkingdev

关于LLM量化的全面研究

随着人工智能模型的不断发展,越来越多的研究人员开始研究如何在不影响模型准确性的前提下,提高模型的计算效率和内存利用率。LLM量化是一种后训练量化技术,可以使像OPT和LLaMA2这样的大型语言模型更具内存和计算效...

Read More
2024-03-01 talkingdev

Distilabel-框架用于对齐数据收集

Distilabel是为AI工程师设计的框架,使用人类反馈的强化学习方法(例如奖励模型和DPO)对大型语言模型进行对齐。 它主要专注于LLM微调和适应性。 Distilabel可协助数据收集,清洗和训练。

Read More
2024-03-01 talkingdev

LLMs使用Dual Chunk Attention处理10万个令牌

Dual Chunk Attention(DCA)扩展了大型语言模型(如Llama2 70B)的能力,使它们能够处理超过100k个令牌而无需额外的训练。它将注意力计算分解成块,增强了模型对短期和长期上下文的理解。

Read More
2024-02-29 talkingdev

Simulatrex-用LLM进行更准确的Agent生成

Simulatrex是一个开源项目,专注于生成代理基于建模(GABM)。它利用大型语言模型进行更准确的模拟。这项技术可以帮助模拟相当复杂的互动系统,比如社交网络或自然生态系统。Simulatrex的开发人员希望通过提供一个易...

Read More
2024-02-29 talkingdev

MobiLlama: 移动设备上的全开源小型语言模型

MobiLlama是一个完全开源、透明、小型的语言模型,适用于移动设备。它的表现对于一个0.5B参数模型来说非常出色,甚至超过了一些更大的模型。

Read More
  1. Prev Page
  2. 45
  3. 46
  4. 47
  5. Next Page