漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-06-21 talkingdev

苹果为提升文字与图像AI性能,开源了20个机器学习模型

苹果公司最近向Hugging Face开源AI仓库贡献了20个Core Machine Learning模型,以此来提升公有模型在图像分类和深度分割方面的性能。此举紧随苹果发布Ferret大型语言模型和四个OpenELMs到Hugging Face的步伐。这一举...

Read More
2024-06-20 talkingdev

Paramount开源,LLM Agent精度测量技术

近日,知名的开源平台GitHub上的Paramount项目公开了一项新的技术——LLMs(Large Language Models)的Agent精度测量。该技术旨在提升大型语言模型的代理精度,助力开发者更加准确地评估和优化模型性能。据了解,LLMs...

Read More
2024-06-20 talkingdev

TroL-高效大型语言和视觉模型开源

近日,一种名为TroL的新型高效大型语言和视觉模型 (LLVMs) 在GitHub上发布,其模型规模分别为18亿、38亿和70亿参数。这些模型能够精确地处理和理解大量的语言和图像信息,其性能和效率都达到了非常高的水平。这些模...

Read More
2024-06-19 talkingdev

Nvidia在最新AI测试中表现出色

在MLPerf的两项新测试中,由Nvidia的Hopper架构驱动的系统表现突出,这两项测试分别比较了大型语言模型的微调和图神经网络的训练。MLPerf是一个AI基准测试套件,用于比较不同系统在AI任务上的性能。Nvidia的Hopper架...

Read More
2024-06-12 talkingdev

Meta如何规模化训练大型语言模型

近日,Meta公司公布了一篇关于其如何规模化训练大型语言模型的论文。该论文详细介绍了Meta公司的训练方法,该方法可以同时训练多达14亿个参数的语言模型。该规模远超以往的语言模型训练规模,并且可以在更短的时间内...

Read More
2024-06-06 talkingdev

XRec:利用大语言模型提升可解释推荐系统

XRec是一种模型无关的框架,它利用大型语言模型的语言能力来增强可解释推荐系统。该框架的核心在于通过自然语言处理技术,为用户提供更透明和易理解的推荐理由。这不仅提升了用户对推荐系统的信任度,还为开发者提供...

Read More
2024-06-06 talkingdev

MatMul突破性成果:无需矩阵乘法的高性能大型语言模型

研究人员发现了一种方法,可以在无需进行矩阵乘法(MatMul)的情况下,依然保持大型语言模型的强大性能,甚至在参数规模达到数十亿时仍然有效。这一突破性技术有望显著提高计算效率,减少资源消耗,并为未来的AI模型...

Read More
2024-06-06 talkingdev

LlamaCare:革新医疗应用的大型语言模型

研究人员推出了LlamaCare,一个专门为医疗知识调优的大型语言模型(LLM)。LlamaCare不仅在处理医疗数据方面表现出色,还引入了扩展分类集成(ECI)技术,以解决LLM中的分类问题。该模型的推出标志着医疗领域人工智...

Read More
2024-06-03 talkingdev

一年构建大型语言模型(LLMs)的洞见与心得

随着人工智能技术的飞速发展,利用AI构建产品和系统变得前所未有的便捷。然而,要超越简单的演示,打造真正有效的产品与系统,仍存在诸多挑战。本文通过作者一年来使用大型语言模型(LLMs)构建应用程序的经验,为读...

Read More
2024-06-03 talkingdev

揭秘AI破解者:对话ChatGPT及其他领先LLMs的越狱高手

Pliny the Prompter在OpenAI最新的基础模型GPT-4o发布后仅数小时就公布了破解方案。该破解允许用户使模型输出明确的受版权保护的歌词、制造禁令物品的说明、攻击策略计划以及基于X光的医疗建议。Pliny已在大约9个月...

Read More
  1. Prev Page
  2. 7
  3. 8
  4. 9
  5. Next Page