漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-06-12 talkingdev

Meta如何规模化训练大型语言模型

近日,Meta公司公布了一篇关于其如何规模化训练大型语言模型的论文。该论文详细介绍了Meta公司的训练方法,该方法可以同时训练多达14亿个参数的语言模型。该规模远超以往的语言模型训练规模,并且可以在更短的时间内...

Read More
2024-06-06 talkingdev

XRec:利用大语言模型提升可解释推荐系统

XRec是一种模型无关的框架,它利用大型语言模型的语言能力来增强可解释推荐系统。该框架的核心在于通过自然语言处理技术,为用户提供更透明和易理解的推荐理由。这不仅提升了用户对推荐系统的信任度,还为开发者提供...

Read More
2024-06-06 talkingdev

MatMul突破性成果:无需矩阵乘法的高性能大型语言模型

研究人员发现了一种方法,可以在无需进行矩阵乘法(MatMul)的情况下,依然保持大型语言模型的强大性能,甚至在参数规模达到数十亿时仍然有效。这一突破性技术有望显著提高计算效率,减少资源消耗,并为未来的AI模型...

Read More
2024-06-06 talkingdev

LlamaCare:革新医疗应用的大型语言模型

研究人员推出了LlamaCare,一个专门为医疗知识调优的大型语言模型(LLM)。LlamaCare不仅在处理医疗数据方面表现出色,还引入了扩展分类集成(ECI)技术,以解决LLM中的分类问题。该模型的推出标志着医疗领域人工智...

Read More
2024-06-03 talkingdev

一年构建大型语言模型(LLMs)的洞见与心得

随着人工智能技术的飞速发展,利用AI构建产品和系统变得前所未有的便捷。然而,要超越简单的演示,打造真正有效的产品与系统,仍存在诸多挑战。本文通过作者一年来使用大型语言模型(LLMs)构建应用程序的经验,为读...

Read More
2024-06-03 talkingdev

揭秘AI破解者:对话ChatGPT及其他领先LLMs的越狱高手

Pliny the Prompter在OpenAI最新的基础模型GPT-4o发布后仅数小时就公布了破解方案。该破解允许用户使模型输出明确的受版权保护的歌词、制造禁令物品的说明、攻击策略计划以及基于X光的医疗建议。Pliny已在大约9个月...

Read More
2024-05-31 talkingdev

1bit-LLMs:AI能效问题的创新解决方案

随着大型语言模型性能的提升,其对能源和计算能力的渴求也随之增加。为降低成本,提高处理速度,同时减少对环境的影响,模型需要实现更小型化。研究人员目前采用一种名为量化的技术,通过减少模型参数的精度来压缩网...

Read More
2024-05-30 talkingdev

如何构建大型语言模型产品:一年的实践和深刻洞察

随着人工智能产品的门槛降低,从演示到实现有效产品的转变依然充满挑战。这一系列文章将深入探讨过去一年中基于机器学习系统之上开发实际应用的人们,从大型语言模型(LLMs)产品开发中学到的关键教训和方法论。内容...

Read More
  1. Prev Page
  2. 15
  3. 16
  4. 17
  5. Next Page