漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-03-08 talkingdev

CoLLM-通过协作提高LLM性能

Co-LLM推出了一种新方法,可以让大型语言模型协作,逐标记生成文本。这种策略允许模型利用其独特的优势和专业知识来完成各种任务,从而在遵循指令、特定领域问题和推理挑战等方面提高性能。

Read More
2024-03-07 talkingdev

Claude 3:最像人类的AI模型

Anthropic发布的Claude 3是一个大型语言模型,可与GPT-4相媲美,它不仅在基准测试中表现出色,而且在交互质量上独具人类特色,具有创造性和自然性,使其成为AI与作家创意合作能力的重大进展。

Read More
2024-03-07 talkingdev

如何为LLM优化技术文档

本文讨论如何为大型语言模型构建结构化文档,以及在整个过程中需要考虑的最佳实践。首先,为LLM编写文档时应当注意文档的结构及可读性。其次,可以通过提供示例代码、使用清晰的术语和概念以及清晰的语言来使文档更...

Read More
2024-03-04 talkingdev

Bonito开源模型,将未标注文本转换为定制训练数据集

Bonito是一种开源模型,旨在将未注释的文本转换为定制的训练数据集,从而增强大型语言模型对专业任务的适应性,而不需要预先存在的注释。

Read More
2024-03-04 talkingdev

探索LLMa的视频理解技术

这个仓库包含了一系列有用的资源,重点是大型语言模型在视频理解领域的应用。这些资源包括论文、代码和数据集,可以帮助研究人员和工程师更好地理解和应用LLMa模型。LLMa模型是一种基于自然语言处理的技术,在视觉和...

Read More
2024-03-04 talkingdev

关于LLM量化的全面研究

随着人工智能模型的不断发展,越来越多的研究人员开始研究如何在不影响模型准确性的前提下,提高模型的计算效率和内存利用率。LLM量化是一种后训练量化技术,可以使像OPT和LLaMA2这样的大型语言模型更具内存和计算效...

Read More
2024-03-01 talkingdev

Distilabel-框架用于对齐数据收集

Distilabel是为AI工程师设计的框架,使用人类反馈的强化学习方法(例如奖励模型和DPO)对大型语言模型进行对齐。 它主要专注于LLM微调和适应性。 Distilabel可协助数据收集,清洗和训练。

Read More
2024-03-01 talkingdev

LLMs使用Dual Chunk Attention处理10万个令牌

Dual Chunk Attention(DCA)扩展了大型语言模型(如Llama2 70B)的能力,使它们能够处理超过100k个令牌而无需额外的训练。它将注意力计算分解成块,增强了模型对短期和长期上下文的理解。

Read More
2024-02-29 talkingdev

Simulatrex-用LLM进行更准确的Agent生成

Simulatrex是一个开源项目,专注于生成代理基于建模(GABM)。它利用大型语言模型进行更准确的模拟。这项技术可以帮助模拟相当复杂的互动系统,比如社交网络或自然生态系统。Simulatrex的开发人员希望通过提供一个易...

Read More
2024-02-29 talkingdev

论文:量化语言模型提高生成效率

IR-QLoRA是一种新方法,它可以提高量化大型语言模型的准确性,使它们更适合在资源有限的设备上使用。量化是一种通过降低浮点精度来减少计算资源需求的技术。虽然这种方法可以大大减少模型的计算量和存储空间,但它也...

Read More
  1. Prev Page
  2. 17
  3. 18
  4. 19
  5. Next Page