漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-02-25 talkingdev

LLM-SRec革新推荐系统:无需微调即可提升序列推荐精度

近日,LLM-SRec技术通过将用户序列行为直接整合到LLM(大语言模型)中,显著提升了推荐系统的准确性,且无需进行额外的模型微调。这一创新方法不仅简化了推荐系统的开发流程,还实现了推荐精度的新突破,成为当前推...

Read More
2025-02-21 talkingdev

Flex 1图像生成模型在Hugging Face Hub发布,性能与速度兼具

近日,社区推出了一款名为Flex 1的图像生成模型,该模型基于Flux Schnell进行微调,并采用Apache许可证。Flex 1的设计参数为8B,能够在保持高性能的同时实现快速运行。这一模型的推出为图像生成领域提供了新的工具,...

Read More
2025-02-21 talkingdev

开源框架DeepEval助力大型语言模型系统评估

DeepEval是一个开源框架,专注于评估和测试大型语言模型系统。它整合了最新的研究成果,通过本地运行的模型来评估模型输出。DeepEval支持通过RAG、微调、LangChain、LlamaIndex等多种方式实现的应用。该框架可帮助开...

Read More
2025-01-28 talkingdev

论文:基础模型参数高效微调技术综述

本文综述了基础模型的参数高效微调技术,深入探讨了在保持多样化任务性能的同时,如何最小化计算成本的方法。随着基础模型(如LLM)的广泛应用,参数高效微调技术(如LoRA、RAG等)成为研究热点。这些技术通过减少需...

Read More
2024-12-06 talkingdev

OpenAI强化学习微调研究计划发布

OpenAI近期发布了其强化学习微调研究计划,该计划致力于通过微调技术提升强化学习模型的泛化能力和实用性。强化学习是一种机器学习方法,旨在使计算机能够通过与环境的交互来学习如何实现特定目标。在OpenAI的计划中...

Read More
2024-12-01 talkingdev

论文:预训练中的程序性知识提升LLM的推理能力

最新研究显示,大型语言模型(LLM)的推理能力得益于预训练阶段发展出的程序性知识。程序性知识指的是一系列规则和步骤,这些知识在预训练过程中被模型学习并内化,进而在后续任务中被用来指导推理。这一发现强调了...

Read More
2024-10-26 talkingdev

利用LLM提升测试实践的创新探索

随着人工智能技术的迅猛发展,LLM(大语言模型)在各个领域的应用持续扩展,尤其在软件测试领域显示出巨大的潜力。通过使用LLM,测试团队能够自动生成测试用例、提升代码覆盖率,并通过智能分析加快缺陷检测的速度。...

Read More
2024-09-27 talkingdev

体验Together AI的Llama 3.2,免费试用全新多模态模型

Together AI推出了Llama 3.2版本,用户可以在Together Playground上免费体验这一全新多模态模型。该模型在训练、微调和推理方面支持200多个模型,包括最新的Llama 3.2视觉模型。Llama 3.2在生产规模下实现了4倍的速...

Read More
  1. Prev Page
  2. 7
  3. 8
  4. 9
  5. Next Page