本研究评估了大型语言模型(LLMs)在进行类似于人类的多轮对话时的能力。研究人员使用了一种名为Persona-Chat的数据集,该数据集包含有关对话参与者偏好和兴趣的信息。研究结果表明,LLMs在某些方面表现出了与人类类...
Read More尽管有人声称MathGLM可以解决数学问题,但实际上它仍然无法胜任这项任务。这一现象凸显了仅仅依赖于大型语言模型的局限性。近年来,基于神经网络的自然语言处理技术取得了长足进步,但在某些特定领域,仍然需要更为...
Read More近年来,大型语言模型(LLMs)在自然语言处理领域引起了广泛关注,但它们如何表达真相仍然是一个有待研究的问题。为了解决这个问题,研究人员开发了一些交互式图表,可以帮助用户更好地理解LLMs如何表示真相。这些图表...
Read More研究人员开发出BitNet,这是一种新的大型语言模型设计,使用更少的能量和内存。BitNet使用一种新的技术来平衡模型的准确性和计算效率,同时减少了对大量数据的依赖。这一新设计的目的是为了降低大型语言模型的计算成...
Read More本研究介绍了LLM4SGG弱监督场景图生成方法,该方法利用大型语言模型的能力,从图像标题中更好地提取和对齐关系,解决了图像标题中捕获详细关系和利用所有可用信息的挑战。
Read More近日,一项名为 Character-LLM 的项目在 GitHub 上推出。该项目通过训练大型语言模型,以贝多芬和凯撒大帝等历史名人为蓝本,通过为它们提供特定的人物资料,从而模拟这些历史人物的语言风格和思想特征。这一技术的...
Read More研究人员正在改进我们与文本到图像模型的交互方式,例如Midjourney和Stable Diffusion,这些模型目前需要复杂的提示才能生成图像。他们引入了“交互式文本到图像”,使人们可以自然地与大型语言模型进行交互,以获得更...
Read More研究人员正在探究数据增强技术对提高大型语言模型(LLMs)数学推理能力的影响。他们通过增强现有数据集中的查询,创建了一个新的数据集AugGSM8K,并开发了一个名为MuggleMath的模型。数据增强技术能有效提升模型的数...
Read More研究人员推出了一种名为FAVOR的新方法,该方法通过在帧级别精细融合音频和视觉细节,使大型语言模型能够理解视频。FAVOR方法的推出,为大型语言模型的视频理解能力提供了新的发展空间。这种新方法通过在帧级别精细融...
Read More