漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-12-06 talkingdev

OpenAI强化学习微调研究计划发布

OpenAI近期发布了其强化学习微调研究计划,该计划致力于通过微调技术提升强化学习模型的泛化能力和实用性。强化学习是一种机器学习方法,旨在使计算机能够通过与环境的交互来学习如何实现特定目标。在OpenAI的计划中...

Read More
2024-12-01 talkingdev

论文:预训练中的程序性知识提升LLM的推理能力

最新研究显示,大型语言模型(LLM)的推理能力得益于预训练阶段发展出的程序性知识。程序性知识指的是一系列规则和步骤,这些知识在预训练过程中被模型学习并内化,进而在后续任务中被用来指导推理。这一发现强调了...

Read More
2024-10-26 talkingdev

利用LLM提升测试实践的创新探索

随着人工智能技术的迅猛发展,LLM(大语言模型)在各个领域的应用持续扩展,尤其在软件测试领域显示出巨大的潜力。通过使用LLM,测试团队能够自动生成测试用例、提升代码覆盖率,并通过智能分析加快缺陷检测的速度。...

Read More
2024-09-27 talkingdev

体验Together AI的Llama 3.2,免费试用全新多模态模型

Together AI推出了Llama 3.2版本,用户可以在Together Playground上免费体验这一全新多模态模型。该模型在训练、微调和推理方面支持200多个模型,包括最新的Llama 3.2视觉模型。Llama 3.2在生产规模下实现了4倍的速...

Read More
2024-09-23 talkingdev

基于AMD GPU的Llama 405B微调成功

近日,研究团队成功在AMD GPU上对Llama 405B进行了微调。这一进展不仅提升了模型的性能,也展示了AMD硬件在深度学习领域的潜力。通过针对特定任务的微调,Llama 405B在处理复杂自然语言处理任务时表现出色,证明了其...

Read More
2024-09-20 talkingdev

MemoRAG:通过记忆驱动的知识发现提升长文本的RAG能力

MemoRAG是一种新兴的技术,旨在通过记忆驱动的知识发现,提升RAG在处理长文本方面的能力。传统的RAG模型在面对长文本时,往往会因为信息量过大而导致性能下降。MemoRAG通过引入记忆机制,有效地存储和检索关键信息,...

Read More
2024-07-19 talkingdev

E5-V开源-全球多模态嵌入与LLMs

E5-V是一种新的框架,其改编了多模态大型语言模型(MLLMs)以创建全球多模态嵌入。通过使用提示,它弥补了不同输入类型之间的差距,而无需进行微调就实现了在多模态任务中的令人印象深刻的性能。这一全球多模态嵌入...

Read More
2024-07-11 talkingdev

Chameleon模型增加图像生成能力的新进展

Anole是一款基于Meta的Chameleon模型构建的开放自回归多模态模型。近期,研究者们着重对该模型进行了微调,成功地将图像生成能力重新整合进了模型中。这一改进不仅提高了模型的功能性,也为未来的开发打开了新的可能...

Read More
2024-06-26 talkingdev

AI与Morph Labs联手优化信息检索增强型生成模型

近日,AI与Morph Labs联合发布了一篇关于信息检索增强型生成(RAG)模型微调的优秀博客文章。在文章中,他们展示了一些合成数据的使用情况。信息检索增强型生成模型是一种新型的深度学习模型,它结合了信息检索技术...

Read More
2024-06-19 talkingdev

Nvidia在最新AI测试中表现出色

在MLPerf的两项新测试中,由Nvidia的Hopper架构驱动的系统表现突出,这两项测试分别比较了大型语言模型的微调和图神经网络的训练。MLPerf是一个AI基准测试套件,用于比较不同系统在AI任务上的性能。Nvidia的Hopper架...

Read More
  1. 1
  2. 2
  3. 3
  4. Next Page