漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2023-11-16 talkingdev

强大的Nous 34B Yi模HF型的微调

Nous研究推出了一款非常强大的34B模型,其建立在双语Yi模型的基础上。Capybara主要通过多轮数据进行训练,每次对话中的令牌数超过1000个,这使得它在处理信息密度较高的某些用户界面任务时具有独特的优势。

Read More
2023-11-16 talkingdev

免费试用英特尔云平台,探索最新的人工智能硬件

您需要更多的计算能力(和选择)来微调您的生成式人工智能吗?使用实践教程和实际代码样例学习✔️。通过不同的硬件配置评估性能和加速度✔️。构建异构应用程序,开发自己的原型,并对AI工作负载进行基准测试。从免费层开...

Read More
2023-11-10 talkingdev

开源MusicGen升级至立体声生成

Audiocraft MusicGen是一款强大的将文本转化为音乐的人工智能模型。最新升级的版本现在支持立体声生成,通过巧妙地交叉使用左右声道进行微调,提高了整体音乐体验。虽然这一升级并没有提高基准分数,但它能够更好地...

Read More
2023-11-07 talkingdev

HelixNet:开源三合一模型显著提升生成性能

最近,一项名为HelixNet的新研究显示,如果微调Mistral基础架构的三个任务特定模型,一个用于生成,一个用于批判,最后一个用于再生,则整个系统的生成性能显着提高。该研究使用合成数据来调整这些模型。HelixNet的...

Read More
2023-11-06 talkingdev

Nous研究使用Yarn方法优化Mistral 7B模型,可处理长达128k的语境

Nous研究利用他们的Yarn方法对Mistral 7B进行了微调,可以处理长达128k的语境。它在短序列长度上显示出最小的退化,并在长文档上大大提高了性能。

Read More
2023-11-03 talkingdev

MoE PEFT代码发布:Cohere AI的参数高效微调模型

Cohere AI的研究部门For AI开发了用于混合专家模型的参数高效微调方法,称为MoE PEFT。该算法可显著提高模型的微调效率,同时保持准确性。最近,该团队公开了该算法的GitHub代码库,为社区提供更多研究资源和工具。C...

Read More
2023-11-03 talkingdev

用于RAG、微调和模型服务的开源工具包

最近,一家开发团队发布了一个名为“LLM Toolkit”的开源Python工具包,用于构建基于RAG的语言模型生成应用程序。它提供了快速的RAG微调、模型训练和服务脚本,同时支持多种文本数据输入和输出格式。该工具包的代码已...

Read More
2023-11-03 talkingdev

亚马逊推出RoPE微调Mistral 7B模型,支持长文本上下文

亚马逊开始进入开源LLM领域,推出RoPE微调Mistral 7B模型,支持长文本上下文。该模型可在上下文中扩展至32k个令牌,可用于各种自然语言处理任务,例如问答和文本生成。RoPE是亚马逊开发的一种新的训练技术,可提高大...

Read More
  1. Prev Page
  2. 15
  3. 16
  4. 17
  5. Next Page