论文:当LLM遇到外部冲突数据引发的智能混乱
talkingdev • 2023-09-19
1415280 views
像GPT-3这样的大型语言模型之所以聪明,是因为它们从大量数据中学习。那么,当新的信息与它们已经知道的信息冲突时,它们会如何反应呢?研究人员发现,这些模型可能会感到困惑,并给出错误的答案,尤其是当它们面临冲突或分散注意力的信息时,这引发了关于它们的可靠性的担忧。当信息冲突或分散时,大型语言模型可能会产生混乱,给出错误答案。这一现象引发了人们对这些模型可靠性的关切。尽管如此,这些模型仍然在大规模数据学习中展现出巨大的潜力,但如何处理这种冲突信息,将是未来研究的重要课题。