据外媒报道,OpenAI近日宣布启动数据伙伴计划,旨在与合作伙伴共同构建开放和私有的AI训练数据集。这个计划的启动也许意味着OpenAI即将用尽其下一轮模型训练的代币。OpenAI表示,他们需要大量的数据来训练AI模型,但...
Read MorePixArt是一种新的文本到图像模型,它使用T5文本编码、交叉注意力和扩散变压器,以比可比模型低得多的计算成本取得了出色的结果。这种新模型使用Transformer扩散模型,可以比使用UNet模型训练快90%。PixArt模型的训练...
Read More最近,一家开发团队发布了一个名为“LLM Toolkit”的开源Python工具包,用于构建基于RAG的语言模型生成应用程序。它提供了快速的RAG微调、模型训练和服务脚本,同时支持多种文本数据输入和输出格式。该工具包的代码已...
Read More近期,研究人员深入探究了多模态大型语言模型(MLLMs)中使用的视觉编码器,并发现CLIP和DINO模型中的某些特征特别适合于详细的视觉任务。他们随后引入了COMM,一种结合了两种模型优点的策略。COMM能够显著提高LLMs...
Read MoreMosaicML发布了一篇关于使用AMD GPU进行大型语言模型训练的文章。该公司在本文中介绍了他们的最新研究结果,使用AMD Radeon Instinct MI100 GPU对GPT-2、GPT-3和T5等大型语言模型进行了训练。结果显示,使用AMD GPU...
Read More芝加哥大学的研究人员开发了一种工具,让艺术家可以给他们的艺术作品添加不可见的变化,这会导致AI模型训练失败。这个工具旨在防止AI公司未经许可使用艺术家的作品。这个叫Nightshade的工具将被集成到Glaze中,Glaze...
Read More大规模训练中的不稳定性对于大多数研究人员来说很难复制。一项新论文展示了如何在小模型中重现这些不稳定性,并验证了许多常见的修复方法在这些小模型上同样有效。该论文的作者认为,这样做有助于提高大规模训练的可...
Read MoreLibgen是许多封闭模型中的数据集。虽然这个数据集的商业使用合法性存在争议,但研究人员仍在使用它来更好地了解语言模型训练数据质量。这个开源的GitHub代码库旨在将Libgen转换为txt文本文档的形式,以便更方便地进...
Read More