漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2023-11-02 talkingdev

只需1美元的算力,为Mistral进行微调

Mistral是一种基于深度学习的自然语言处理模型,其7B模型是目前最大的公开模型之一。现在,您可以使用Jupyter笔记本,根据自己的数据集对Mistral的7B模型进行微调,并仅需1美元的计算费用。微调Mistral模型可以提高...

Read More
2023-10-18 talkingdev

关于LoRA 微调的几点洞见想法

最近,一组研究人员针对数百个实验结果,总结出了微调 LoRA 的几点洞见。研究人员发现,针对特定场景进行细致的参数调整可以显著提升 LoRA 的性能,同时,合理的信道选择和传输功率也是提高 LoRA 传输可靠性的关键。...

Read More
2023-10-11 talkingdev

Agent完全指南:LLMs与智能应用的革命

人工智能驱动软件的下一步演变并非聊天机器人,而是利用LLMs来完成实际工作的应用。AI基础设施联盟的此篇电子书全面覆盖了此领域的各个方面,包括Prompt工程、LLM逻辑和推理、主要框架如LlamaIndex、LangChain、Hays...

Read More
2023-10-06 talkingdev

深度解析:全面探讨分布式训练和高效微调的一切

在多GPU和多节点系统上训练语言模型存在多种挑战,且在这些场景下积累经验也非常困难。本篇博客文章详尽深入地研究了ZeRO,FSDP,以及在大规模训练或微调模型时可能遇到的问题。我们需要理解,进行分布式训练并不仅...

Read More
2023-10-04 talkingdev

数据是否仍然是护城河?AI生成技术重新塑造数据价值观

AI生成技术正在重塑我们对大量数据收集的传统价值观。大型语言模型可以通过最小化的数据进行微调,甚至可以生成合成数据集,这使得专有数据的独特性和重要性可能正在逐渐减弱。在过去,我们通常认为数据量的大小和独...

Read More
2023-10-03 talkingdev

流媒体LLM:一种理论上可以支持无限上下文窗口大小的语言模型算法更新

语言模型的性能往往受到其上下文长度的限制。一般来说,上下文长度的限制主要源于计算硬件和聪明的算法更新。StreamingLLM(Github Repo)提供了一种算法更新,通过将令牌流式传输至注意力机制,理论上可以支持无限...

Read More
2023-09-29 talkingdev

联合训练大型多模态模型:一种新的算法取得了突破

模型通常针对特定任务(例如,语言生成和图像生成)进行单独训练。然而,最近提出的一种名为联合自回归混合(JAM)的算法,通过巧妙地交叉注意力和温和的微调,成功地将不同的模型结合在一起。这种新颖的方法在多种...

Read More
2023-09-29 talkingdev

Meta的文字转图片模型超越SDXL,引领新AI助手之路

Meta公司新推出的Emu图像生成模型已在用户偏好调查中超越SDXL。Emu模型是在11亿图像对上进行预训练的,只在几千张精心策划的图像上进行了微调。此模型将作为Meta新AI助手计划的主要支柱。Emu的高效性能,证明了大规...

Read More
  1. Prev Page
  2. 16
  3. 17
  4. 18
  5. Next Page