漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2023-12-15 talkingdev

Cerebras发布gigaGPT模型训练框架

Cerebras是一家人工智能训练芯片制造商,近日发布了一个在其系统上训练大型模型的框架,名为gigaGPT。该框架非常简单易用,不需要将大型模型分割成多个GPU和节点进行训练。

Read More
2023-12-13 talkingdev

HuggingFace 发布 Transformers 4.36.0 版本,新增 Mistral 模型和 AMD 支持

近日,HuggingFace 发布了最新版本的 Transformers 4.36.0。此次更新新增了 Mistral 模型和 AMD 支持等多项功能。同时,safetensors 已成为默认设置。HuggingFace 的这次更新将为 AI 模型的开发和训练提供更加便利的...

Read More
2023-12-13 talkingdev

BioCLIP:专为生物应用设计的视觉模型

近日,研究人员开发出了一种专门为生物应用设计的视觉模型BioCLIP。实验结果显示,在特定的生物任务上,BioCLIP的表现比OpenAI的clip高出近20%。此外,BioCLIP还提供了一个由1千万对图像和文本构成的训练集。 事实...

Read More
2023-11-30 talkingdev

OpenAI推出数据伙伴计划,与机构合作生产训练AI模型的数据集

近日,OpenAI推出了数据伙伴计划,旨在与机构合作生产训练人工智能模型所需的数据集。该计划已经与包括冰岛政府和非营利组织Free Law Project在内的众多机构建立了合作关系。数据伙伴计划旨在通过与合作伙伴共享数据...

Read More
2023-11-29 talkingdev

Berkeley的研究人员通过RLAIF提高Starling-7B模型的帮助性和无害性

伯克利的一组研究人员使用合成偏好数据训练了一个新的最先进的7B参数模型。本文讨论了训练奖励模型的新挑战(例如,示例在列表中的位置会改变其排名)以及他们如何克服这些挑战。结果模型可与经过训练的奖励模型一起...

Read More
2023-11-22 talkingdev

多模态模型训练方法LLaVa,可用于视频生成

LLaVa是一种从文本模型训练多模型的方法。现在它可以用于视频。基于Vicuna的结果模型非常强大,可以轻松实现视频摘要和字幕的最新表现。

Read More
2023-11-22 talkingdev

论文:流行公共模型可能没有在测试集上训练

一种深入研究训练语言模型所使用的数据的方法。研究结果表明,许多闭源模型可能没有在流行的基准测试上进行训练。

Read More
2023-11-15 talkingdev

FinGPT:低资源语言的语言模型训练方法

本文介绍了一种名为FinGPT的语言模型,该模型是在芬兰语上进行训练的,研究人员发现通过使用一些技巧,数据重复可以产生极为平滑的损失曲线。这可能是解决互联网上语言数据不足问题的一种简单方法。

Read More
  1. Prev Page
  2. 13
  3. 14
  4. 15
  5. Next Page