本文提供了一份长而广泛的调查,介绍了让大型语言模型运行更快的不同方法。列表不是完全穷尽的,但可以用作学习有趣主题的跳板。在可能的情况下,它包括相关论文和博客文章的链接。本文介绍了不同的方法来优化大型语...
Read More近日,美国政府与英特尔公司合作启动了一个名为ScienceGPT的训练计划。该计划旨在训练一个万亿参数的GPT模型,以便提高自然语言处理的效率和精度。GPT(Generative Pre-trained Transformer)是一种基于Transformer...
Read More近日,美国加州伯克利分校的研究人员开发出了一款名为MonadGPT的人工智能模型,该模型基于GPT-3,旨在探究一个问题:如果ChatGPT在17世纪得以发明,会是怎样一番景象。MonadGPT通过对17世纪的语言和文化进行研究,成...
Read More亚马逊正在为进入AI竞赛做准备,推出Olympus,这是一个拥有2万亿参数的大型语言模型,旨在超越OpenAI的GPT-4和谷歌的Bard。这一举措有望将亚马逊推向人工智能技术的前沿。虽然目前尚不清楚Olympus的推出时间表,但它...
Read More在本周的OpenAI Dev Day上,OpenAI发布了一款名为GPT-4 Turbo的API,它可以提供128k上下文的自然语言处理,以及自定义GPT和视觉功能。这款API的成本只有GPT-3的一小部分。此外,OpenAI还发布了一款名为Codex的API,...
Read More最近,一个名为Talk Llama的Github仓库备受关注,该仓库提供了一种在终端上与LLaMA AI进行交互的方式。LLaMA AI是一个基于GPT-3的自然语言处理模型,它的名字是“Language Model for Multi-turn Dialogue with Latent...
Read More据最新消息,Phind模型在编码方面的表现已经超过了目前最强的GPT-4。该模型支持16k上下文编码,在编码速度上也不逊于GPT-3.5。Phind模型是一种基于自然语言处理技术的编码器,可以用于编写各种程序代码。该模型采用...
Read MoreMosaicML发布了一篇关于使用AMD GPU进行大型语言模型训练的文章。该公司在本文中介绍了他们的最新研究结果,使用AMD Radeon Instinct MI100 GPU对GPT-2、GPT-3和T5等大型语言模型进行了训练。结果显示,使用AMD GPU...
Read More微软研究小组在一篇论文中提到,GPT-3.5-turbo(ChatGPT背后的模型)是一个具有20B参数的模型,该小组研究扩散模型用于代码。据称原始模型的参数为175B,因此可能进行了重新训练或蒸馏。
Read More企业中使用AI模型的主要用途之一是从非结构化文本中提取结构化数据,如JSON或CSV。目前主要使用gpt-3.5-turbo的函数调用来完成此任务。GoLLIE通常表现更好,可以更加自信地运行敏感数据。
Read More