Nvidia在IEEE/ACM计算机辅助设计国际会议上发表主题演讲,介绍了一款名为ChipNeMo的大型语言模型,旨在提高芯片设计师的生产力。尽管尚未完全证明,但ChipNeMo有助于为设计工具编写脚本,总结错误报告,并为设计师提...
Read More近日,研究人员提出了一种名为CLLM4Rec的全新方法,该方法通过高级预训练和新型语言嵌入,将大型语言模型与基于ID的系统相结合,提高了推荐精度。研究人员表示,CLLM4Rec的核心在于将大型语言模型与基于ID的系统相结...
Read More研究人员通过创建同理心对话训练数据集的方式,改进了用于心理咨询的大型语言模型的同理心能力。该研究旨在使机器人咨询师更加亲切自然,增加用户的体验感和满意度。目前,该技术已在心理咨询机器人和智能客服中得到...
Read More这项研究表明,使用大型语言模型将类别组织成层次结构可以提高图像分类的准确性,从而解决预训练模型(如CLIP)中存在的偏差问题,这些模型会混淆相似的类别。
Read More亚马逊开始进入开源LLM领域,推出RoPE微调Mistral 7B模型,支持长文本上下文。该模型可在上下文中扩展至32k个令牌,可用于各种自然语言处理任务,例如问答和文本生成。RoPE是亚马逊开发的一种新的训练技术,可提高大...
Read More最近的一项研究引入了一种名为“从错误中学习”(LeMa)的方法,通过从错误中学习来教授大型语言模型解决数学问题,类似于人类学生通过纠正错误来提高自己。
Read More近期,研究人员深入探究了多模态大型语言模型(MLLMs)中使用的视觉编码器,并发现CLIP和DINO模型中的某些特征特别适合于详细的视觉任务。他们随后引入了COMM,一种结合了两种模型优点的策略。COMM能够显著提高LLMs...
Read More