近日,研究人员推出了一种改进型的Low Rank Adaptation(LoRA)技术,可帮助研究和实践社区更有效地微调大型模型。以下是本次发布的主要内容: - LoRA被广泛应用于研究和实践社区,作为一种参数高效的微调大型模型...
Read More深度学习公司DeepMind的AI系统AlphaDev可以创建出比人类生成的算法更快的排序数据,速度可高达人类生成的三倍。该系统已经创建了一些算法并成为两个标准C++代码库的一部分。AlphaDev被训练用于比较值,将值在不同位...
Read More苹果公司或许是消费级人工智能的潜在领导者,虽然他们从未明确提及过AI技术,但在以下几个方面表现出色: - **变压器键盘**:苹果公司新推出的MacBook Pro配备了变压器键盘,这意味着每个键都有自己的处理器,可以...
Read More最近,一篇名为“Activation-aware Weight Quantization (AWQ)”的论文在GitHub上开源。这篇论文提出了一种新的方法,可以更高效地压缩大型语言模型(LLMs),克服了高硬件要求和慢速令牌生成的问题。AWQ可以选择性地...
Read More在技术领域中,微调是一种比完全微调更便宜的模型微调方式。它通过仅更新模型的一个小而精心选择的子集来工作。然而,即使如此,在普通硬件上微调大型(超过13B参数)模型的成本仍然太高。量化减少了模型中参数的精...
Read MoreHuggingFace发布了新的研究成果,使得在普通硬件上能够完成对65B参数模型的微调。这项研究使得量化技术不再局限于推理阶段,而是可以应用于训练过程中,从而大幅减少了模型所需空间。以下是该研究的三个核心点: -...
Read More## 新闻概要: - Meta发布了一款专门用于AI推理工作负载的定制芯片。 - 这款7纳米芯片的功耗较低,与许多替代硬件相比速度相当。 - 尽管与其他科技巨头相比有些安静,但Meta的AI硬件计划仍在积极推进。 ## 详细内...
Read More