漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-02-21 talkingdev

Flex 1图像生成模型在Hugging Face Hub发布,性能与速度兼具

近日,社区推出了一款名为Flex 1的图像生成模型,该模型基于Flux Schnell进行微调,并采用Apache许可证。Flex 1的设计参数为8B,能够在保持高性能的同时实现快速运行。这一模型的推出为图像生成领域提供了新的工具,...

Read More
2025-02-21 talkingdev

开源框架DeepEval助力大型语言模型系统评估

DeepEval是一个开源框架,专注于评估和测试大型语言模型系统。它整合了最新的研究成果,通过本地运行的模型来评估模型输出。DeepEval支持通过RAG、微调、LangChain、LlamaIndex等多种方式实现的应用。该框架可帮助开...

Read More
2025-01-28 talkingdev

论文:基础模型参数高效微调技术综述

本文综述了基础模型的参数高效微调技术,深入探讨了在保持多样化任务性能的同时,如何最小化计算成本的方法。随着基础模型(如LLM)的广泛应用,参数高效微调技术(如LoRA、RAG等)成为研究热点。这些技术通过减少需...

Read More
2024-12-07 talkingdev

OpenAI强化学习微调研究计划发布

OpenAI近期发布了其强化学习微调研究计划,该计划致力于通过微调技术提升强化学习模型的泛化能力和实用性。强化学习是一种机器学习方法,旨在使计算机能够通过与环境的交互来学习如何实现特定目标。在OpenAI的计划中...

Read More
2024-12-02 talkingdev

论文:预训练中的程序性知识提升LLM的推理能力

最新研究显示,大型语言模型(LLM)的推理能力得益于预训练阶段发展出的程序性知识。程序性知识指的是一系列规则和步骤,这些知识在预训练过程中被模型学习并内化,进而在后续任务中被用来指导推理。这一发现强调了...

Read More
2024-10-27 talkingdev

利用LLM提升测试实践的创新探索

随着人工智能技术的迅猛发展,LLM(大语言模型)在各个领域的应用持续扩展,尤其在软件测试领域显示出巨大的潜力。通过使用LLM,测试团队能够自动生成测试用例、提升代码覆盖率,并通过智能分析加快缺陷检测的速度。...

Read More
2024-09-27 talkingdev

体验Together AI的Llama 3.2,免费试用全新多模态模型

Together AI推出了Llama 3.2版本,用户可以在Together Playground上免费体验这一全新多模态模型。该模型在训练、微调和推理方面支持200多个模型,包括最新的Llama 3.2视觉模型。Llama 3.2在生产规模下实现了4倍的速...

Read More
2024-09-24 talkingdev

基于AMD GPU的Llama 405B微调成功

近日,研究团队成功在AMD GPU上对Llama 405B进行了微调。这一进展不仅提升了模型的性能,也展示了AMD硬件在深度学习领域的潜力。通过针对特定任务的微调,Llama 405B在处理复杂自然语言处理任务时表现出色,证明了其...

Read More
  1. Prev Page
  2. 11
  3. 12
  4. 13
  5. Next Page