漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-02-27 talkingdev

SubPOP发布大规模数据集,助力LLM精准预测公众调查结果

近日,SubPOP发布了一个大规模数据集,专门用于微调LLM(大语言模型),以预测调查响应分布。该数据集通过减少预测差距,显著提升了模型在未见过的调查数据上的泛化能力。这一技术突破为公众意见预测提供了更精准的...

Read More
2025-02-27 talkingdev

Allen AI推出OlmOCR:基于Qwen VL的PDF文本提取新突破

Allen AI近日宣布,其通过持续微调Qwen VL模型,成功训练出一款强大的PDF文本提取工具——OlmOCR。该模型基于超过20万份PDF文档进行训练,能够高效、精准地提取PDF中的文本内容。OlmOCR的推出标志着PDF文本提取技术的...

Read More
2025-02-25 talkingdev

LLM-SRec革新推荐系统:无需微调即可提升序列推荐精度

近日,LLM-SRec技术通过将用户序列行为直接整合到LLM(大语言模型)中,显著提升了推荐系统的准确性,且无需进行额外的模型微调。这一创新方法不仅简化了推荐系统的开发流程,还实现了推荐精度的新突破,成为当前推...

Read More
2025-02-21 talkingdev

Flex 1图像生成模型在Hugging Face Hub发布,性能与速度兼具

近日,社区推出了一款名为Flex 1的图像生成模型,该模型基于Flux Schnell进行微调,并采用Apache许可证。Flex 1的设计参数为8B,能够在保持高性能的同时实现快速运行。这一模型的推出为图像生成领域提供了新的工具,...

Read More
2025-02-21 talkingdev

开源框架DeepEval助力大型语言模型系统评估

DeepEval是一个开源框架,专注于评估和测试大型语言模型系统。它整合了最新的研究成果,通过本地运行的模型来评估模型输出。DeepEval支持通过RAG、微调、LangChain、LlamaIndex等多种方式实现的应用。该框架可帮助开...

Read More
2025-01-28 talkingdev

论文:基础模型参数高效微调技术综述

本文综述了基础模型的参数高效微调技术,深入探讨了在保持多样化任务性能的同时,如何最小化计算成本的方法。随着基础模型(如LLM)的广泛应用,参数高效微调技术(如LoRA、RAG等)成为研究热点。这些技术通过减少需...

Read More
2024-12-07 talkingdev

OpenAI强化学习微调研究计划发布

OpenAI近期发布了其强化学习微调研究计划,该计划致力于通过微调技术提升强化学习模型的泛化能力和实用性。强化学习是一种机器学习方法,旨在使计算机能够通过与环境的交互来学习如何实现特定目标。在OpenAI的计划中...

Read More
2024-12-02 talkingdev

论文:预训练中的程序性知识提升LLM的推理能力

最新研究显示,大型语言模型(LLM)的推理能力得益于预训练阶段发展出的程序性知识。程序性知识指的是一系列规则和步骤,这些知识在预训练过程中被模型学习并内化,进而在后续任务中被用来指导推理。这一发现强调了...

Read More
  1. Prev Page
  2. 8
  3. 9
  4. 10
  5. Next Page