MyCompanions.AI旨在将人类影响者与AI相结合,为用户提供引人入胜且个性化的体验。该平台计划解决AI影响者的预测性主导以及现有平台(如Patreon)的缺陷。承诺的功能包括定制角色扮演、强大的上下文和交谈记忆以及多...
Read More在本周的OpenAI Dev Day上,OpenAI发布了一款名为GPT-4 Turbo的API,它可以提供128k上下文的自然语言处理,以及自定义GPT和视觉功能。这款API的成本只有GPT-3的一小部分。此外,OpenAI还发布了一款名为Codex的API,...
Read MoreNous Research运用他们的Yarn方法来优化Mistral 7B的性能,使其可以处理长达128k的上下文。该方法在短序列长度上表现良好,并可以显著提高处理长文档的性能。
Read More亚马逊开始进入开源LLM领域,推出RoPE微调Mistral 7B模型,支持长文本上下文。该模型可在上下文中扩展至32k个令牌,可用于各种自然语言处理任务,例如问答和文本生成。RoPE是亚马逊开发的一种新的训练技术,可提高大...
Read More据最新消息,Phind模型在编码方面的表现已经超过了目前最强的GPT-4。该模型支持16k上下文编码,在编码速度上也不逊于GPT-3.5。Phind模型是一种基于自然语言处理技术的编码器,可以用于编写各种程序代码。该模型采用...
Read More近日,TabLiB 800B发布,这是目前最大的公开表格数据集,包括了6.27亿张表格和8670亿个上下文信息的令牌。这个数据集的发布旨在鼓励社区构建更好地理解表格数据的大型数据模型。此外,该数据集还包含了来自不同领域...
Read MoreMemGPT允许开发者创建带有自我编辑记忆的永久聊天机器人。它智能地管理LLMs中的不同记忆层,以有效地提供扩展上下文。MemGPT知道何时将关键信息购买到向量数据库中,以及何时在聊天中检索它,从而实现永久对话。该存...
Read More你的AI应用需要从其他API获取数据,你将如何得到它?大多数开发者都会费力地通过脚本和众多文档页来建立一个两周后就可能出故障的流水线。如果你能在没有API问题的情况下,以10倍的速度构建复杂的自动化工作流,你会...
Read More语言模型的性能往往受到其上下文长度的限制。一般来说,上下文长度的限制主要源于计算硬件和聪明的算法更新。StreamingLLM(Github Repo)提供了一种算法更新,通过将令牌流式传输至注意力机制,理论上可以支持无限...
Read More最新版本的Flash Attention在提升模型上下文长度和性能的同时,其速度也得到了极大的提升。目前,Flash Attention正在被HuggingFace生态系统本地化支持的过程中。Flash Attention的升级不仅仅提升了模型的运算速度,...
Read More