近日,SubPOP发布了一个大规模数据集,专门用于微调LLM(大语言模型),以预测调查响应分布。该数据集通过减少预测差距,显著提升了模型在未见过的调查数据上的泛化能力。这一技术突破为公众意见预测提供了更精准的...
Read MoreAllen AI近日宣布,其通过持续微调Qwen VL模型,成功训练出一款强大的PDF文本提取工具——OlmOCR。该模型基于超过20万份PDF文档进行训练,能够高效、精准地提取PDF中的文本内容。OlmOCR的推出标志着PDF文本提取技术的...
Read More近日,LLM-SRec技术通过将用户序列行为直接整合到LLM(大语言模型)中,显著提升了推荐系统的准确性,且无需进行额外的模型微调。这一创新方法不仅简化了推荐系统的开发流程,还实现了推荐精度的新突破,成为当前推...
Read More近日,社区推出了一款名为Flex 1的图像生成模型,该模型基于Flux Schnell进行微调,并采用Apache许可证。Flex 1的设计参数为8B,能够在保持高性能的同时实现快速运行。这一模型的推出为图像生成领域提供了新的工具,...
Read MoreDeepEval是一个开源框架,专注于评估和测试大型语言模型系统。它整合了最新的研究成果,通过本地运行的模型来评估模型输出。DeepEval支持通过RAG、微调、LangChain、LlamaIndex等多种方式实现的应用。该框架可帮助开...
Read More本文综述了基础模型的参数高效微调技术,深入探讨了在保持多样化任务性能的同时,如何最小化计算成本的方法。随着基础模型(如LLM)的广泛应用,参数高效微调技术(如LoRA、RAG等)成为研究热点。这些技术通过减少需...
Read MoreOpenAI近期发布了其强化学习微调研究计划,该计划致力于通过微调技术提升强化学习模型的泛化能力和实用性。强化学习是一种机器学习方法,旨在使计算机能够通过与环境的交互来学习如何实现特定目标。在OpenAI的计划中...
Read More最新研究显示,大型语言模型(LLM)的推理能力得益于预训练阶段发展出的程序性知识。程序性知识指的是一系列规则和步骤,这些知识在预训练过程中被模型学习并内化,进而在后续任务中被用来指导推理。这一发现强调了...
Read More