漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-01-25 talkingdev

大模型LLM幻觉排行榜

最近,一份名为“Hallucination Leaderboard”的GitHub仓库开始在自然语言处理领域引起轰动。该仓库汇集了多种模型在摘要短文档时产生幻觉的性能比较数据,让人们更好地了解这些模型的优势和不足。据悉,该排行榜是由...

Read More
2024-01-25 talkingdev

Nano ColBERT:最新开源检索嵌入模型

ColBERT是用于检索的较好的嵌入模型之一。由于许多人正在构建启用RAG的人工智能应用程序,因此值得探索和使用。这个实现是一个简单和直接的复制,没有性能优化和它们所增加的复杂性。它使用HuggingFace的BERT,但实...

Read More
2024-01-25 talkingdev

论文:MMCbench新基准测试大型多模型

这篇技术报告介绍了MMCBench,这是一个新的基准测试,旨在测试各种任务如文本到图像和语音到文本等情况下大型多模型(LMMs)的一致性和可靠性。该测试涵盖了超过100个流行模型,旨在提高读者对这些AI系统在现实世界...

Read More
2024-01-25 talkingdev

论文:权重平均奖励模型的应用

奖励模型在RLHF中用于表示人类偏好,尽管被对齐的模型通常“破解奖励”并实现不利的性能。通过合并多个奖励模型,这些模型保持线性模式连接,得到的对齐模型被79%的人更喜欢,而不是一个对齐单一奖励模型的模型。模型...

Read More
2024-01-24 talkingdev

自我提升AI:通过选择独特数据的DiverseEvol方法

最近,一种名为DiverseEvol的新方法在GitHub上发布,它可以让AI模型选择自己的训练数据,使其在不需要人工或其他先进AI系统的帮助下变得更好。DiverseEvol方法包括两个步骤:第一步是从数据集中选择用于训练模型的样...

Read More
2024-01-24 talkingdev

自我奖励语言模型

本项目探讨了自我奖励语言模型,其中模型充当自己的评判者以改善训练。通过使用这种方法,研究人员能够提高模型的性能,超越像GPT-4这样的其他系统。

Read More
2024-01-24 talkingdev

从零开始深入解析LoRA

LoRA是一种低秩适配器,可让您仅微调语言模型中的少量参数。它们可以显着改善和改变这些模型的性能

Read More
2024-01-23 talkingdev

提升视觉基础模型性能:ViSFT开源

针对图像-文本训练中使用的视觉基础模型,研究人员提出了一种名为ViSFT的新方法,以提高其性能。ViSFT使用类似于语言模型中的微调的两阶段过程来增强视觉基础模型。首先,该模型使用大规模的无监督预训练来学习图像...

Read More
2024-01-23 talkingdev

OMG-Seg全能图像和视频分割模型

OMG-Seg是一种新的模型,可以使用单个高效的系统执行各种图像和视频分割任务。与使用每个任务的不同模型的传统方法不同,OMG-Seg从图像语义到交互式视频分割处理所有内容,是一个一站式解决方案,降低了复杂性并增强...

Read More
2024-01-23 talkingdev

机器学习工程开源书籍发布

机器学习工程开源书籍发布,该项目是一个开放的方法论集合,旨在帮助成功训练大型语言模型和多模态模型。该材料适用于LLM/VLM培训工程师和运营人员。书籍包含大量脚本和复制粘贴命令,以使读者能够快速解决问题。该...

Read More
  1. Prev Page
  2. 61
  3. 62
  4. 63
  5. Next Page