漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-04-03 talkingdev

AutoQuant 笔记本:将 HuggingFace 模型转换为五种不同的量化格式

AutoQuant 笔记本是一个新的工具,它可以将 HuggingFace 上的模型导出为五种不同的量化格式,包括 GGUF、GPTQ、EXL2、AWQ 和 HQQ。这些量化格式旨在优化模型的性能和效率,以便在不同的硬件和平台上部署。通过使用 A...

Read More
2024-04-01 talkingdev

Qwen MoE性能匹敌7B大模型,激活参数仅三分之一

近期,一项名为Qwen MoE的技术引起了业界关注。该技术在保持与强大7B参数模型相当性能的同时,成功将激活参数数量减少至原来的三分之一。这一突破性的进展不仅意味着更低的计算成本,还为大规模机器学习模型的可访问...

Read More
2024-03-20 talkingdev

Quiet-Star:提升语言模型输出准确性的推理框架开源

Quiet-Star是一个推理框架,旨在增强语言模型生成正确输出的能力。该框架的代码已经公开,同时发布了一个每个令牌8步的模型。Quiet-Star通过优化模型的推理过程,提高了生成文本的准确性和相关性,对于自然语言处理...

Read More
2024-03-18 talkingdev

AMD GPU上的多节点大型语言模型训练解析

本文详细介绍了Lamini公司在AMD GPU上进行大型语言模型训练的技术架构。这包括了他们所使用的调度程序、模型训练技术以及其他相关技术细节。Lamini的技术团队选择了AMD GPU作为硬件加速平台,以优化模型训练的性能和...

Read More
2024-02-22 talkingdev

LoRA+:优化模型微调的新方案

本文介绍了LoRA+,一种优于现有Low-Rank Adaptation (LoRA)方法的微调大模型的方法。LoRA+通过为过程中的关键部分使用不同的学习速率来实现更好的性能和更快的微调,而无需增加计算需求。

Read More
2023-11-20 talkingdev

使用纯Pytorch加速分割任务

我们可以通过使用Torch编译、稀疏化、与Triton一起使用自定义内核以及其他PyTorch性能特性,将分割任务的速度提高8倍。

Read More
2023-11-17 talkingdev

论文:直接偏好优化提高模型的真实性

根据偏好优化模型是促进ChatGPT普及的突破之一。类似的技术也可以用来提高模型的正确性和真实性,将医学回忆中的错误减少50%以上。

Read More
2023-10-16 talkingdev

Anyscale-将Llama 2的冷启动时间缩短至30秒

将模型从云存储加载到节点GPU通常需要大部分推理时间。通过一些巧妙的技巧,例如内存流,Anyscale将其缩短了20倍,仅需30秒即可到达Llama 2 70B。

Read More
  1. Prev Page
  2. 5
  3. 6
  4. 7
  5. Next Page