漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-02-12 talkingdev

如何通过qapair提示训练Mistral-7B模型以实现更好的微调

HelixML实现了一套qapair提示,从各种不同的角度提取内容,并为每个文档生成内容寻址哈希。这使得微调Mistral-7B模型的效果更好。

Read More
2024-02-06 talkingdev

自然语言SQL-7B模型现身,强大的文本转SQL模型

最近,谷歌AI团队发布了一篇论文,介绍了他们新开发的自然语言SQL-7B模型。这一模型使用了一种名为T5的预训练语言模型。这种模型可以将人类语言转换为SQL查询。自然语言SQL-7B模型是目前最强大的文本转SQL模型之一,...

Read More
2024-01-31 talkingdev

RWKV发布Eagle 7B模型

RWKV是主流Transformer模型的一种架构替代方案。它使用一种新颖的线性注意力机制,使其极其高效。这个新的检查点和配置是在1T令牌上训练的,超越了许多其他功能强大的基于7B Transformer的模型。

Read More
2024-01-22 talkingdev

Stablecode3B:比7B的CodeLlama更出色,可在MacBook上本地运行

据悉,最近发布的Stablecode 3B模型表现出色,其强大的性能超过了7B的CodeLlama模型。同时,该模型的尺寸足够小,能够在MacBook上本地运行,无需像7B模型一样需要大量的计算资源。这一模型的发布,标志着技术领域的...

Read More
2023-12-12 talkingdev

StripedHyena模型:新AI模型让上下文长度变更长

近来,Transformer模型在AI领域占据统治地位。它们是强大的序列学习器,但也存在一些缺点。这项新工作基于状态空间模型,展示了新的架构可以带来巨大的好处,如增加上下文长度。

Read More
2023-12-12 talkingdev

Stability AI发布StableLM Zephyr 3B聊天模型

稳定性人工智能公司发布了StableLM Zephyr 3B稳定聊天模型,该模型是StableLM 3B-4e1t模型的一个扩展,灵感来源于Zephyr 7B模型,旨在实现高效的文本生成,特别是在指令跟踪和问答上下文中。该模型已经使用直接偏好...

Read More
2023-11-29 talkingdev

Berkeley的研究人员通过RLAIF提高Starling-7B模型的帮助性和无害性

伯克利的一组研究人员使用合成偏好数据训练了一个新的最先进的7B参数模型。本文讨论了训练奖励模型的新挑战(例如,示例在列表中的位置会改变其排名)以及他们如何克服这些挑战。结果模型可与经过训练的奖励模型一起...

Read More
2023-11-06 talkingdev

Nous研究使用Yarn方法优化Mistral 7B模型,可处理长达128k的语境

Nous研究利用他们的Yarn方法对Mistral 7B进行了微调,可以处理长达128k的语境。它在短序列长度上显示出最小的退化,并在长文档上大大提高了性能。

Read More
  1. Prev Page
  2. 1
  3. 2
  4. 3
  5. Next Page