漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-03-08 talkingdev

深入探讨:大规模模型训练的并行化技术

这是一篇关于大规模模型训练的并行化技术的教程。文章详细介绍了不同类型的并行化技术,以及如何在训练大模型时实现高效的并行化。本文介绍了数据并行、模型并行和混合并行等不同的技术,并详细讨论了它们的优缺点。...

Read More
2024-03-06 talkingdev

Claude 3 Opus视频摘要技术开源

最近,知名机器学习专家Andrej Karpathy提出了一个具有挑战性的任务:从他最近的一段视频中提取摘要并发布博客文章。经过一些数据预处理,Claude 3成功地完成了这项任务,并发布了一篇高质量有趣的博客文章。Claude...

Read More
2024-03-05 talkingdev

亚马逊将投资10亿美元的初创企业用于人工智能和机器人的结合

亚马逊的10亿美元工业创新基金旨在增加对将人工智能和机器人集成的公司的投资,旨在提高其物流网络的效率

Read More
2024-03-05 talkingdev

使用 Unsolth 加速 Gemma 训练速度 2.4 倍

Unsloth 项目旨在重写训练和推理语言模型的重要内核。它发布了一个示例,其中包括 Google 开源的 Gemma 模型的代码。通过使用 Unsolth,Gemma 的训练速度可以提高 2.4 倍。这个项目的目标是通过修改模型的内核,实现...

Read More
2024-03-04 talkingdev

Bonito开源模型,将未标注文本转换为定制训练数据集

Bonito是一种开源模型,旨在将未注释的文本转换为定制的训练数据集,从而增强大型语言模型对专业任务的适应性,而不需要预先存在的注释。

Read More
2024-03-04 talkingdev

探索LLMa的视频理解技术

这个仓库包含了一系列有用的资源,重点是大型语言模型在视频理解领域的应用。这些资源包括论文、代码和数据集,可以帮助研究人员和工程师更好地理解和应用LLMa模型。LLMa模型是一种基于自然语言处理的技术,在视觉和...

Read More
2024-03-04 talkingdev

关于LLM量化的全面研究

随着人工智能模型的不断发展,越来越多的研究人员开始研究如何在不影响模型准确性的前提下,提高模型的计算效率和内存利用率。LLM量化是一种后训练量化技术,可以使像OPT和LLaMA2这样的大型语言模型更具内存和计算效...

Read More
2024-02-29 talkingdev

论文:量化语言模型提高生成效率

IR-QLoRA是一种新方法,它可以提高量化大型语言模型的准确性,使它们更适合在资源有限的设备上使用。量化是一种通过降低浮点精度来减少计算资源需求的技术。虽然这种方法可以大大减少模型的计算量和存储空间,但它也...

Read More
  1. Prev Page
  2. 120
  3. 121
  4. 122
  5. Next Page