漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-04-08 talkingdev

ReFT:一种高效节省参数的微调语言模型方法

近期在GitHub上发布的ReFT(Representation Fine-Tuning)项目,为微调语言模型带来了一种新的参数高效方法。与传统的PeFT相比,ReFT在保持强大性能的同时,大大降低了成本。该方法通过精细化调整模型参数,使得在进...

Read More
2024-03-19 talkingdev

16种不同的分词器预训练同一模型揭秘

现代语言模型的一个奇特事实是,在训练模型之前,我们首先训练分词器。另一个奇怪的事实是,在大规模场景下,词汇量大小似乎并不是那么重要。本文将深入探讨这两种现象,分析分词器在模型预训练中的角色和影响,以及...

Read More
2023-10-05 talkingdev

论文:LLMs中的知识编辑,大规模语言模型的知识编排之谜

大规模语言模型(LLMs)比作一个庞大且复杂的拼图,每一块拼图都代表一份知识。这篇论文研究了我们尝试改变其中一些知识碎片会发生什么情况。结果可能会导致整个拼图被破坏,或者使其变得模糊不清。知识编辑在LLMs...

Read More
2023-05-30 talkingdev

Sophia:一种用于语言模型预训练的可扩展的随机二阶优化器

近日,Sophia的官方实现已经上线,Sophia是一种可扩展的随机二阶优化器,用于语言模型预训练。以下是该实现的三个核心要点: - Sophia是一种适用于大规模语言模型预训练的随机二阶优化器; - Sophia的实现基于PyTor...

Read More
  1. Prev Page
  2. Next Page