该仓库介绍了Wanda,一种通过选择性地丢弃不太重要的网络权重来减少大型语言模型复杂性的独特方法。与其他方法不同,Wanda无需重新训练或大量计算,能够在保持性能的同时实现有效的模型剪枝。
Read More这项研究介绍了LOw-Memory Optimization(LOMO),这是一种旨在显著减少大型语言模型(LLM)训练所需资源的优化器,目前这一过程需要大量的GPU资源。LOMO的创新方法使得只需使用一台具有8个RTX 3090 GPU(每个具有24...
Read More从头开始训练基础模型是一项具有挑战性的任务。斯坦福大学的语言模型团队发布了一个在Jax上的框架,使这个过程更加简化。它提供了多种数据和模型并行策略,简化了编程过程。
Read MoreOpenAI的GPT-4语言模型现在可以使用外部工具来完成任务,例如查看天气、获取股票价格或在公司数据库中查找数据。这是相对于之前的GPT版本的一项重大改进,之前的版本由于其受训数据的限制,功能受到了限制。
Read More本文讨论了几种加速大型语言模型(LLM)训练和推理的技术,以使用高达100K个输入令牌的大上下文窗口。这些技术包括:ALiBi位置嵌入,稀疏注意力,闪电注意力,多查询注意力,条件计算以及使用80GB的A100 GPU。
Read More本研究调查了强大的语言模型是否能够教授较不先进的人工智能系统并提高其性能。研究提出了两个人工智能之间的“学生-教师”关系,并探讨了“教师”人工智能应该在什么时候、如何以及解释给“学生”人工智能,以提升其能力...
Read More## 新闻概要: - 梅赛德斯宣布将OpenAI的语言模型ChatGPT集成到MBUX信息娱乐系统中。 - 集成ChatGPT将允许驾驶员和乘客与系统进行更自然和复杂的交互,提高用户体验。 - MBUX信息娱乐系统是梅赛德斯汽车上的一款语...
Read More