微软的研究人员使用合成数据来训练基于Mistral的解码器,以改进嵌入技术。该技术是同类产品中最佳的。有趣的是,他们使用GPT-4的两步提示策略来生成合成检索训练数据。
Read More本文提供了一份长而广泛的调查,介绍了让大型语言模型运行更快的不同方法。列表不是完全穷尽的,但可以用作学习有趣主题的跳板。在可能的情况下,它包括相关论文和博客文章的链接。本文介绍了不同的方法来优化大型语...
Read MoreOpenAI超级对齐团队最新成果表明,您可以使用更弱的监督模型来引导或对齐更强大的模型,类似于弱人类对齐超级智能模型。他们使用GPT-2恢复了GPT-4的大部分对齐性能。他们指出,这种方法具有可行的路径,可以实现显著...
Read MoreOpenAI与柏林出版商Axel Springer达成协议,将使用该出版商的内容来训练其生成式AI模型,并将最近由Axel Springer发布的文章添加到ChatGPT中。这项协议将使OpenAI的AI模型能够更好地理解新闻内容和语言,从而提高其...
Read MoreCerebras是一家人工智能训练芯片制造商,近日发布了一个在其系统上训练大型模型的框架,名为gigaGPT。该框架非常简单易用,不需要将大型模型分割成多个GPU和节点进行训练。
Read MoreLLM可视化是一个网站,用于展示nano-gpt模型如何将6个字母的序列按字母顺序排序。nano-gpt模型是由85,000个参数组成的模型,其基础是GPT-2,该模型可用于生成自然语言文本。该网站使用了交互式的可视化工具,用户可...
Read More