HuggingFace发布了新的研究成果,使得在普通硬件上能够完成对65B参数模型的微调。这项研究使得量化技术不再局限于推理阶段,而是可以应用于训练过程中,从而大幅减少了模型所需空间。以下是该研究的三个核心点: -...
Read More近日,基于线性注意力模型与内置循环的RWKV模型成为Transformers库中首个推出的RNN模型。该模型是一个强大的语言模型,理论上可运行较长的上下文窗口,并具有快速的运行速度。目前,该模型在HuggingFace平台上的开发...
Read MoreHuggingFace开源了驱动HuggingChat应用程序的代码库,这是ChatGPT的竞争对手。 ## 主要内容 以下是本次发布的主要内容: - HuggingFace开源了驱动HuggingChat应用程序的代码库。 - HuggingChat是与ChatGPT竞争的...
Read More近期,mosaic ML平台引起了广泛关注。其中一个令人惊讶的模型就是Pass@20,该模型的大小惊人地小,但性能卓越。它由曾经在Google编程合成项目工作的人员在转到Replit后进行训练。在标准的HumanEval基准测试中,它可...
Read More内容摘要: - Jsonformer是一个基于HuggingFace模型的包装器,能够填充生成过程中的固定标记并将内容标记的生成委托给语言模型,从而生成符合指定模式的语法正确的JSON。 - Jsonformer目前仅支持JSON Schema的一部...
Read More- Whisper现已在Jax上运行,能够在短短几秒钟内转录1小时的音频。 - 该模型本身已经是最强大的语音转文本系统之一,现在加上了惊人的速度,使用起来几乎是不费吹灰之力。 - 尽管仍有缺点,但这是社区取得的卓越成果...
Read More以下是该产品的三个核心要点: - HuggingFace Chat是一款基于30B OpenAssistant Llama模型的聊天应用程序,类似于ChatGPT。 - 尽管速度比竞争对手慢,但由于基于大部分开放模型,它仍然具有相当的能力。 - HuggingF...
Read More以下是该新闻的要点: - Stability AI的新款StableLM模型已经训练了大约800B个令牌,目标是达到1.5T个令牌 - StableLM模型有3B和7B个参数,并且具有4k令牌的上下文长度 - StableLM模型是经过允许商业使用的许可证的...
Read More