Lookback Lens是一个直接的模型,用于检测大型语言模型中的上下文幻觉。它通过在预测过程中引入更多的上下文信息,来解决大型语言模型(LLM)在生成文本时可能出现的幻觉问题。这种新的方法旨在提高模型预测的准确性...
Read MoreLamini已经成功开发出了名为'记忆调整'的技术,该技术可以有效地减少95%的幻觉现象。这项技术的主要作用在于,能够将特定的数据更有效地嵌入到模型中,而不会影响到模型的一般知识。通过这种方式,Lamini不仅解决了L...
Read More生成式人工智能(Generative AI)的未来前景备受争议。目前,该技术面临着盈利能力不足、安全隐患以及语言模型固有的幻觉问题等多重挑战。除非在2024年底前发布一款像GPT-5这样具有突破性的模型,并解决关键问题同时...
Read More针对多模态大语言模型(MLLM)中的幻觉问题,研究人员开发了MHaluBench,一个新的评估幻觉检测方法的基准。该工具可以帮助研究人员更好地评估语言模型的幻觉能力,从而有效提高模型的质量和准确性。目前,该工具已经...
Read More1月份微软研究论坛上,Dipendra Misra提出了一种名为“Layer-Selective Rank Reduction(LASER)”的技术,通过用一个较小的近似矩阵替换权重矩阵,提高了大型语言模型(LLM)的准确性。
Read MoreNous Research发布了Hermes 2.5视觉模型,该模型基于最佳的7B语言模型和SigLIP集成,是一种强大的新型开源文本和视觉模型,可在消费级硬件上运行。这里的一个很酷的创新是集成函数调用。由于存在幻觉问题,该模型仍...
Read MoreAMBER是一个新的基准,旨在评估和降低多模式大型语言模型(MLLM)中的幻觉,而不依赖其他高级语言模型。该项目已经发布开源库,旨在帮助研究者和开发人员更好地理解和应对多模式语言模型的幻觉问题。
Read More