漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2023-11-02 talkingdev

HF开源结合语言模型和计算机视觉进行开放式分词

Hugging Face Space最近发布了两项重要技术:Segment Anything和MetaCLIP,这两项技术结合了最强大的语言模型和计算机视觉技术,能够基于文本输入进行开放式分词。开放式分词是计算机视觉领域中一个新颖且令人兴奋的...

Read More
2023-11-02 talkingdev

论文:大型语言模型从错误中吸取教训

最近的一项研究引入了一种名为“从错误中学习”(LeMa)的方法,通过从错误中学习来教授大型语言模型解决数学问题,类似于人类学生通过纠正错误来提高自己。

Read More
2023-11-02 talkingdev

微软通过重大突破推动小型AI模型的界限

微软研究院已在其较小的语言模型Phi 1.5上增强了多模态能力,使其能够像OpenAI更大的GPT-4模型一样解释图像,但计算成本更低。Phi 1.5模型结合了文本和视觉信息,可以推断出对应的文本或图像。该模型在多个数据集上...

Read More
2023-11-01 talkingdev

COMM开源,改进多模态LLMs性能

近期,研究人员深入探究了多模态大型语言模型(MLLMs)中使用的视觉编码器,并发现CLIP和DINO模型中的某些特征特别适合于详细的视觉任务。他们随后引入了COMM,一种结合了两种模型优点的策略。COMM能够显著提高LLMs...

Read More
2023-10-31 talkingdev

Magnetic:轻松将LLM集成到您的Python中

Magnetic是一个用于轻松集成大型语言模型到Python代码的库。 这个名为Magnetic的库是由NLP引擎提供商Hugging Face发布的。基于Transformers,Magnetic允许您轻松地将大型语言模型集成到您的Python代码中,以进行各种...

Read More
2023-10-31 talkingdev

ICTC-个性化图像聚类库开源

这篇论文介绍了一种名为IC⁠TC的基于文本条件的图像聚类方法,该方法利用视觉语言模型根据用户提供的文本描述对图像进行排序。IC⁠TC方法使用了预训练的视觉语言模型来生成图像和文本之间的嵌入,然后使用这些嵌入来聚...

Read More
2023-10-31 talkingdev

AMD发布第二轮训练,为大型语言模型训练提供更强的支持

MosaicML发布了一篇关于使用AMD GPU进行大型语言模型训练的文章。该公司在本文中介绍了他们的最新研究结果,使用AMD Radeon Instinct MI100 GPU对GPT-2、GPT-3和T5等大型语言模型进行了训练。结果显示,使用AMD GPU...

Read More
2023-10-30 talkingdev

论文:LLM-FP4,一种新型的LLM压缩方法

在最新的研究中,科学家们介绍了一种名为LLM-FP4的新型方法,该方法能够通过在训练后将大型语言模型的权重和活动转换为4位浮点值,实现对其进行压缩。这种技术的创新之处在于,它不仅能够显著减少模型的存储需求,还...

Read More
  1. Prev Page
  2. 98
  3. 99
  4. 100
  5. Next Page