漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2023-12-19 talkingdev

微调Mistral 7B在卡牌游戏中的应用

通过在魔法飞天卡牌游戏中进行微调实验,以提高GPT-4的性能,获得了一个精细调整的7B参数模型,其性能接近于人类水平。

Read More
2023-12-12 talkingdev

Stability AI发布StableLM Zephyr 3B聊天模型

稳定性人工智能公司发布了StableLM Zephyr 3B稳定聊天模型,该模型是StableLM 3B-4e1t模型的一个扩展,灵感来源于Zephyr 7B模型,旨在实现高效的文本生成,特别是在指令跟踪和问答上下文中。该模型已经使用直接偏好...

Read More
2023-12-08 talkingdev

优化LLMs使其可实现真实世界应用

Lightspeed分享了来自Google和TitanML关于通过提示或微调优化LLMs的内幕。 这些技术可以优化自然语言处理模型,从而帮助它们更好地适应真实世界的应用。 在这篇文章中,您将了解到这些优化技术的工作原理以及它们如...

Read More
2023-12-07 talkingdev

谷歌通过SDXL技术实现图文风格一致性

谷歌最近基于SDXL技术推出了一项令人惊叹的工作,该工作通过多代人的注意力共享来维护一致的样式。这种方法至关重要的是不需要进行任何微调

Read More
2023-12-07 talkingdev

自学习语言模型实现领域自适应

在需要专业知识的领域中使用语言模型时,可以进行微调或使用某些检索技术。但两者都有缺点。这种新颖的方法使用自动生成的合成数据来更好地学习测试时的信息。它在标准适应基准测试中显示出比微调和RAG更好的表现。

Read More
2023-12-06 talkingdev

Perplexity AI推出在线LLM,或将取代谷歌搜索

Perplexity AI将网络索引和最新信息与会话式AI聊天机器人界面相结合,有可能取代谷歌。该公司最近发布了从Mistral和Meta开源模型中微调和增强的版本。这些模型旨在提供有用、真实和最新的信息。它们是第一个基于网络...

Read More
2023-11-28 talkingdev

ZipLoRA: 低秩学习矩阵合并技术提升模型性能

本文介绍了一种名为 ZipLoRA 的技术,该技术可以将多个低秩学习矩阵(LoRAs)合并在一起,从而改善模型性能。相比于常规的微调,LoRAs 更加经济实惠,但是也会改变模型的行为。本文提出的 ZipLoRA 技术可以在保留每...

Read More
2023-11-21 talkingdev

Neural-Cherche:神经搜索模型微调库开源

Neural-Cherche是一个库,旨在为特定数据集微调神经搜索模型,例如Splade,ColBERT和SparseEmbed。 在搜索模型中进行微调可以提高搜索结果的质量,从而更好地满足用户需求。 该库现已开源,可在GitHub上获取。此外,...

Read More
  1. Prev Page
  2. 14
  3. 15
  4. 16
  5. Next Page