漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2023-10-04 talkingdev

数据是否仍然是护城河?AI生成技术重新塑造数据价值观

AI生成技术正在重塑我们对大量数据收集的传统价值观。大型语言模型可以通过最小化的数据进行微调,甚至可以生成合成数据集,这使得专有数据的独特性和重要性可能正在逐渐减弱。在过去,我们通常认为数据量的大小和独...

Read More
2023-10-03 talkingdev

流媒体LLM:一种理论上可以支持无限上下文窗口大小的语言模型算法更新

语言模型的性能往往受到其上下文长度的限制。一般来说,上下文长度的限制主要源于计算硬件和聪明的算法更新。StreamingLLM(Github Repo)提供了一种算法更新,通过将令牌流式传输至注意力机制,理论上可以支持无限...

Read More
2023-09-29 talkingdev

联合训练大型多模态模型:一种新的算法取得了突破

模型通常针对特定任务(例如,语言生成和图像生成)进行单独训练。然而,最近提出的一种名为联合自回归混合(JAM)的算法,通过巧妙地交叉注意力和温和的微调,成功地将不同的模型结合在一起。这种新颖的方法在多种...

Read More
2023-09-29 talkingdev

Meta的文字转图片模型超越SDXL,引领新AI助手之路

Meta公司新推出的Emu图像生成模型已在用户偏好调查中超越SDXL。Emu模型是在11亿图像对上进行预训练的,只在几千张精心策划的图像上进行了微调。此模型将作为Meta新AI助手计划的主要支柱。Emu的高效性能,证明了大规...

Read More
2023-09-28 talkingdev

QA-LoRA的智能构建和微调方法,让LLM更快更小

大型语言模型在许多设备上的运行效率受限于其庞大的计算需求。然而,一个名为QA-LoRA的新方法已经成功改变了这一局面。QA-LoRA通过巧妙地改变模型的构建和微调方式,使得大型语言模型能够在维持强大功能的同时,有效...

Read More
2023-09-19 talkingdev

更高效的微调视觉变换器

对预训练的视觉模型进行特定任务的微调,通常需要大量额外的计算能力。然而,研究人员已经提出了一种名为“显著通道调整”(SCT)的方法,这种方法可以智能地选择模型中需要微调的部分,使用的额外设置要远少于其他方...

Read More
2023-09-15 talkingdev

MoEs模型在参数效率上的极限突破

混合专家模型(MoEs)是一种增加模型容量的有效方法,同时不会增加每个令牌的运行时间。然而,让它们快速运行并进行微调仍然具有一定的难度。最新研究发现,如果你能有效地修改密集模型参数,以配合MoEs的微调,就能...

Read More
2023-09-13 talkingdev

打造自己的Llama 2,取代GPT-3.5/4

人工智能领域的新闻总是让人振奋人心,最近有关Llama 2的消息开始引起了人们的关注。Llama 2是由OpenAI推出,这是一款新的人工智能模型,用于自然语言处理。Llama 2被称为是GPT-3.5/4的替代品,因为它可以在大多数任...

Read More
2023-09-12 talkingdev

构建基于LLM系统与产品的七大实用模式

本文分享了七种实用模式,用于将大型语言模型(LLM)整合到系统中:性能测量、添加最新知识、微调任务、缓存以节省时间/成本、确保质量输出、错误管理以及利用用户反馈。首先,性能测量是衡量模型在实际应用中的效果...

Read More
2023-09-06 talkingdev

论文:强化零样本模型的微调技术

零样本模型是人工智能模型中的一种,他们在广泛的分布上都有着强大的性能。但是,如果你在特定的狭窄任务上对它们进行调整,它们可能会在提高特定任务性能的同时,失去原本的广泛适应性。这个现象虽然有其积极的一面...

Read More
  1. Prev Page
  2. 10
  3. 11
  4. 12
  5. Next Page