微软的最新模型现已在HuggingFace上提供研究用途。Phi-2是一种基于Transformers的语言生成模型,它被训练用于生成各种文本,包括问答、对话和自然语言生成。该模型采用的是自回归模式,即在生成下一个单词或字符时,...
Read More近来,Transformer模型在AI领域占据统治地位。它们是强大的序列学习器,但也存在一些缺点。这项新工作基于状态空间模型,展示了新的架构可以带来巨大的好处,如增加上下文长度。
Read More稳定性人工智能公司发布了StableLM Zephyr 3B稳定聊天模型,该模型是StableLM 3B-4e1t模型的一个扩展,灵感来源于Zephyr 7B模型,旨在实现高效的文本生成,特别是在指令跟踪和问答上下文中。该模型已经使用直接偏好...
Read MoreAnthropic最近发布的Claude拥有200k个词汇的上下文。它似乎遭受了语言模型在外部评估中的“迷失在中间”的问题,这意味着它只有27%的标准问题的检索性能。但是,如果在提示中添加句子“助手:这是上下文中最相关的句子...
Read More视觉上下文提示(Visual In-Context Prompting)是一种创新的方法,能适应各种提示和上下文,极大地提高了分割任务的性能,并在开放式挑战中展示了令人印象深刻的结果。该方法为深度学习模型提供了更多的信息,从而...
Read MoreGPT-4 Turbo是一款专为会议记录而设计的AI产品,通过深度学习算法,可以自动记录会议内容并生成完整的会议笔记。该产品基于GPT-4技术,不仅可以识别语音,还可以理解会议中的上下文,并在笔记中提取出主要观点和重要...
Read MoreGitHub上有一个新的工具——LongQLoRA,它可以让LLMs(语言模型)理解更长的序列。LLMs已经在自然语言处理方面取得了很大的成功,但它们的上下文理解能力有限。长序列的理解也是LLMs的一个挑战。LongQLoRA通过对序列切...
Read MoreMyCompanions.AI旨在将人类影响者与AI相结合,为用户提供引人入胜且个性化的体验。该平台计划解决AI影响者的预测性主导以及现有平台(如Patreon)的缺陷。承诺的功能包括定制角色扮演、强大的上下文和交谈记忆以及多...
Read More在本周的OpenAI Dev Day上,OpenAI发布了一款名为GPT-4 Turbo的API,它可以提供128k上下文的自然语言处理,以及自定义GPT和视觉功能。这款API的成本只有GPT-3的一小部分。此外,OpenAI还发布了一款名为Codex的API,...
Read More