漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2023-08-10 talkingdev

最快方式打造定制版Llama2模型

通过上传JSONL数据到你的云端硬盘,链接并运行带有QLoRA和SFT训练的笔记本,你就可以得到一个定制调整的Llama2模型。这似乎是我发现的最简单的调整例子,并且效果很好。最重要的是,该模型使用了(提示,响应)的格...

Read More
2023-08-10 talkingdev

从零开始训练Llama:一步步指导TinyShakespeare

本文将详细介绍如何使用Llama论文来训练TinyShakespeare。Llama是一个新型的人工智能训练模型,具有高效和精准的特性。TinyShakespeare是一个文本生成模型,其设计目标是模仿莎士比亚的写作风格生成文本。本指南将带...

Read More
2023-08-02 talkingdev

论文:ToolLlama-语言模型与API的强大结合

工具使用是一个范例,其中语言模型生成触发某些API被调用的词汇,其输出作为令牌被反馈到语言模型中。这意味着语言模型能够使用计算器,网络浏览器,甚至编码环境。随着最近强大的开源语言模型的发布,您可以收集40k...

Read More
2023-08-01 talkingdev

Rust Llama:用Rust复制llama2.c的新尝试

Rust Llama是一个在GitHub Repo上的项目,它是llama2.c的复制,但是使用的是Rust编程语言。这个项目的目的主要是为了学习,但也可能是为了内存安全。 Rust是一种面向系统的编程语言,强调并发和内存安全性,因此使用...

Read More
2023-08-01 talkingdev

当GPT-3.5的成本低于Llama 2时

训练吞吐量、提示处理吞吐量和生成吞吐量都有不同的成本,并且受到不同计算资源的瓶颈制约。因此,某些工作负载在Llama 70B上实际上比支付GPT-3.5更昂贵。这篇博客写得非常优雅,围绕模型部署考虑问题有一些非常好的...

Read More
2023-08-01 talkingdev

Ollama开源:运行、创建和分享大型语言模型

Ollama是一个发布在GitHub上的项目,专为运行、创建和分享大型语言模型而设计。它为开发者和研究者提供了一个集成的平台,可以方便的搭建、训练并分享他们的语言模型。这些模型可以应用于各种语言处理任务,如机器翻...

Read More
2023-07-31 talkingdev

优化后的Llama 2,上下文长度达到32k

最近获得2000万美元投资的together公司,已经对Llama 2进行了微调,通过在位置嵌入上进行线性扩展,使其在处理上下文时可以处理高达32k的token。他们在许多有趣的基准测试中进行了测试,但是他们警告说,现代语言模...

Read More
2023-07-26 talkingdev

Scale AI定制开源大型语言模型产品

Scale的LLM引擎包允许用户微调开源大型语言模型,以提高在特定领域用例上的性能。用户可以微调的模型之一是Llama 2,这是与Meta合作的结果。这种开源大型语言模型的优化,使其在特定领域用例上的性能得到提升,为行...

Read More
2023-07-25 talkingdev

Nous研究训练的LongLlama-2-13B 8k模型进步显著

由Nous研究所训练的13B参数的LongLlama-2-13B模型现在可以处理多达8k的令牌(context)。该成果是通过精细调整和线性位置插值缩放实现的。LongLlama-2-13B模型的进步标志着人工智能技术的一大步,使得处理大规模数据变...

Read More
2023-07-25 talkingdev

高通联手Meta,旨在将语言模型引入手机

高通作为移动处理器制造商,正准备将其旗舰人工智能Llama 2模型引入到智能手机中。这一举措旨在优化手机的语言处理能力,使其在没有网络连接的情况下仍能执行复杂的语言任务。高通和Meta的这次合作,预计将为移动端...

Read More
  1. Prev Page
  2. 13
  3. 14
  4. 15
  5. Next Page