漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2023-11-13 talkingdev

LM4Visual-基于AI文本模型来进行视觉任务

研究人员发现,尽管大型语言模型是为文本设计的,但它们可以成为处理视觉任务的强大工具。使用文本训练的模型的部分来直接处理图像和视频,研究人员在各种视觉任务中取得了改进的结果。该研究结果表明,基于文本的AI...

Read More
2023-11-13 talkingdev

LongQLoRA:提升LLMs上下文理解能力

GitHub上有一个新的工具——LongQLoRA,它可以让LLMs(语言模型)理解更长的序列。LLMs已经在自然语言处理方面取得了很大的成功,但它们的上下文理解能力有限。长序列的理解也是LLMs的一个挑战。LongQLoRA通过对序列切...

Read More
2023-11-13 talkingdev

谷歌完成5万多芯片的最大分布式LLM训练任务

谷歌利用MaxText和Jax训练技术,同时在超过5万个芯片上进行了LLM(语言模型)训练任务,保持了66%以上的利用率,成为了最佳MFU的强有力竞争者。该项目主要基于专有技术,但其中展示了一些有趣的细节,对于其他大规模...

Read More
2023-11-10 talkingdev

Cohere发布业内领先的嵌入模型

Cohere的最新模型是用于与真实世界的嘈杂数据互动的搜索应用的升级,以及用于检索增强生成(RAG)系统的应用。其多语言模型现在支持100多种语言,并可用于搜索同一语言内的内容(例如,在法国文档上使用法语查询进行...

Read More
2023-11-09 talkingdev

CogVLM-17B开放式视觉语言模型

CogVLM-17B是一个开放式的视觉语言模型,具有100亿视觉参数和70亿语言参数。该模型在许多标准基准测试中表现出色,并在人类评估中表现良好。CogVLM-17B的性能优于以往的模型,将为计算机视觉和自然语言处理领域的发...

Read More
2023-11-09 talkingdev

DARE方法:无需重新训练增强语言模型

DARE方法可以简化语言模型(如BERT)的增强过程,允许将新功能集成到统一模型中,从而在各种语言任务中提高效率。

Read More
2023-11-09 talkingdev

论文:跨视角训练提升小型语言模型效率

跨视角训练(SCT)可以提高小型语言模型的性能,使其能够生成先前仅可由较大模型实现的句子嵌入,从而优化性能和计算效率。

Read More
2023-11-09 talkingdev

Nvidia正在为工程师推出生成式AI进行试点测试

Nvidia在IEEE/ACM计算机辅助设计国际会议上发表主题演讲,介绍了一款名为ChipNeMo的大型语言模型,旨在提高芯片设计师的生产力。尽管尚未完全证明,但ChipNeMo有助于为设计工具编写脚本,总结错误报告,并为设计师提...

Read More
  1. Prev Page
  2. 96
  3. 97
  4. 98
  5. Next Page