Lookback Lens是一个直接的模型,用于检测大型语言模型中的上下文幻觉。它通过在预测过程中引入更多的上下文信息,来解决大型语言模型(LLM)在生成文本时可能出现的幻觉问题。这种新的方法旨在提高模型预测的准确性...
Read More最近,一种新型的循环神经网络(RNN)变体在多项任务中的表现超过了Mamba。这种新型的RNN变体的重要特点是其更新函数本身就是一个机器学习(ML)模型。这使得它可以处理长上下文和在上下文中进行学习。在现今的机器...
Read MoreScoped Propagators是一种新的C++20功能,可以提高应用程序代码的可读性和可维护性。它是一个使用RAII(Resource Acquisition Is Initialization,资源获取即初始化)技术的技巧,可以自动向函数调用链中的所有函数...
Read More苹果正在对其人工智能(AI)进行细分处理,区分出'上下文'和'世界'模型。其中,像ChatGPT这样的'世界'模型,被用于处理开放式查询,但没有个人上下文。OpenAI的地位并不稳固,因为在大语言模型(LLMs)中缺乏防御壁...
Read MorePE-Rank是一种新的段落排名方法,通过使用单一的段落嵌入来进行上下文压缩,从而提高了效率。段落排名在许多技术领域都有重要的应用,如信息检索、机器翻译和自然语言处理等。传统的段落排名方法往往需要大量的计算...
Read More近年来,大型语言模型在自然语言处理领域取得了显著进展,但在长时间对话中保持记忆仍然是一个巨大的挑战。为了解决这一问题,研究人员提出了一种新的方法:Streaming Infinite Retentive LLM(SirLLM)。这种方法允...
Read MoreMistral 公司近日在 Hugging Face Hub 上发布了其 7B 模型的最新版本——Mistral 7B Instruct V3。该版本在上下文长度和性能方面都有显著提升。新的模型不仅能够处理更长的上下文,还在多个基准测试中表现出色,显示出...
Read More近日,Google发布了新的轻量级模型Gemini Flash。此模型具有多模态推理和高达一百万个符号的长上下文窗口。Google利用其先进的技术,使Gemini Flash在处理大量数据时保持了高效与精确。这种新型的轻量级模型将有助于...
Read More