漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-02-02 talkingdev

Weaver-专注于讲故事的基础模型

Weaver是一系列专门用于讲述故事的模型。最大的模型(34B参数)在故事讲述基准测试中表现优于GPT-4。

Read More
2024-02-01 talkingdev

Pytorch实验性浮点8训练

使用较低精度的模型训练速度更快、更便宜,但不稳定。最近有很多关于量化训练的研究。这个代码库建立在这些基础上,提供易于阅读和可修改的代码,实现浮点8训练。

Read More
2024-02-01 talkingdev

Lilac Garden快速聚类技术:将语言模型训练效率提高100倍

在训练语言模型时,一个挑战是为任务找到足够多样化的数据集。更难的是,将这些数据可视化。这个很酷的工具使用快速聚类和主题建模,使得可以探索数据,以改善过滤和整体质量。

Read More
2024-01-31 talkingdev

Meta发布CodeLlama 70B模型

Meta的新模型已经在大量代码上进行了精调和指令调整。它们在HumanEval测试中表现出色,在某些方面接近于GPT-4。这些模型可在Meta许可下和HuggingFace上使用。

Read More
2024-01-26 talkingdev

Local-SGD:谷歌开源高效LLM训练方法

研究人员探索了一种名为异步Local-SGD的新的语言模型训练方法。这种方法是联邦平均的一种变体。

Read More
2024-01-23 talkingdev

机器学习工程开源书籍发布

机器学习工程开源书籍发布,该项目是一个开放的方法论集合,旨在帮助成功训练大型语言模型和多模态模型。该材料适用于LLM/VLM培训工程师和运营人员。书籍包含大量脚本和复制粘贴命令,以使读者能够快速解决问题。该...

Read More
2024-01-12 talkingdev

Unsloth轻量化库加速TRL上的模型

Unsloth是一个轻量化库,可加速语言模型的微调。它现在可以轻松地与TRL在常见的模型架构上配合使用。Unsloth库通过一个简单的API使得模型训练和微调更快速。它可以帮助从训练数据中自动学习、优化和微调模型,使得模...

Read More
2024-01-11 talkingdev

STL-开源自我涌现令牌标记的视觉转换器,提高稳定性

对于视觉转换器(ViTs)的显著进展,研究人员使用一种新的自我涌现令牌标记(STL)框架,提高了完全注意力网络(FAN)模型的鲁棒性。这种方法涉及训练FAN令牌标记器来创建有意义的补丁令牌标记,然后训练FAN学生模型。

Read More
2024-01-10 talkingdev

DeepSeek LLM技术报告发布:接近GPT-3.5水平

去年最好的编码模型之一是DeepSeek LLM。它在许多基准测试中接近GPT-3.5(即使它可能是3倍大小)。有关模型训练,令牌计数,模型架构等的信息已在技术报告中发布。DeepSeek LLM是一种基于语言模型的编码器,它使用自...

Read More
2023-12-25 talkingdev

开源Llama模型工具集,提高深度学习效率

Facebook发布了一组工具、资源和示例,用于使用Llama模型系列。该工具集可帮助深度学习从业人员更高效地进行模型训练和应用。Llama模型系列由Facebook AI Research开发,已被广泛用于计算机视觉领域。这个工具集将包...

Read More
  1. Prev Page
  2. 7
  3. 8
  4. 9
  5. Next Page