苹果公司最近向Hugging Face开源AI仓库贡献了20个Core Machine Learning模型,以此来提升公有模型在图像分类和深度分割方面的性能。此举紧随苹果发布Ferret大型语言模型和四个OpenELMs到Hugging Face的步伐。这一举...
Read More近日,知名的开源平台GitHub上的Paramount项目公开了一项新的技术——LLMs(Large Language Models)的Agent精度测量。该技术旨在提升大型语言模型的代理精度,助力开发者更加准确地评估和优化模型性能。据了解,LLMs...
Read More近日,一种名为TroL的新型高效大型语言和视觉模型 (LLVMs) 在GitHub上发布,其模型规模分别为18亿、38亿和70亿参数。这些模型能够精确地处理和理解大量的语言和图像信息,其性能和效率都达到了非常高的水平。这些模...
Read More在MLPerf的两项新测试中,由Nvidia的Hopper架构驱动的系统表现突出,这两项测试分别比较了大型语言模型的微调和图神经网络的训练。MLPerf是一个AI基准测试套件,用于比较不同系统在AI任务上的性能。Nvidia的Hopper架...
Read More近日,Meta公司公布了一篇关于其如何规模化训练大型语言模型的论文。该论文详细介绍了Meta公司的训练方法,该方法可以同时训练多达14亿个参数的语言模型。该规模远超以往的语言模型训练规模,并且可以在更短的时间内...
Read MoreXRec是一种模型无关的框架,它利用大型语言模型的语言能力来增强可解释推荐系统。该框架的核心在于通过自然语言处理技术,为用户提供更透明和易理解的推荐理由。这不仅提升了用户对推荐系统的信任度,还为开发者提供...
Read More研究人员发现了一种方法,可以在无需进行矩阵乘法(MatMul)的情况下,依然保持大型语言模型的强大性能,甚至在参数规模达到数十亿时仍然有效。这一突破性技术有望显著提高计算效率,减少资源消耗,并为未来的AI模型...
Read More研究人员推出了LlamaCare,一个专门为医疗知识调优的大型语言模型(LLM)。LlamaCare不仅在处理医疗数据方面表现出色,还引入了扩展分类集成(ECI)技术,以解决LLM中的分类问题。该模型的推出标志着医疗领域人工智...
Read More随着人工智能技术的飞速发展,利用AI构建产品和系统变得前所未有的便捷。然而,要超越简单的演示,打造真正有效的产品与系统,仍存在诸多挑战。本文通过作者一年来使用大型语言模型(LLMs)构建应用程序的经验,为读...
Read MorePliny the Prompter在OpenAI最新的基础模型GPT-4o发布后仅数小时就公布了破解方案。该破解允许用户使模型输出明确的受版权保护的歌词、制造禁令物品的说明、攻击策略计划以及基于X光的医疗建议。Pliny已在大约9个月...
Read More