漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2023-08-07 talkingdev

论文:利用LLM技术提升婴儿级语言模型的性能

最近,一篇论文的作者们开发出了一种名为“共思”的方法,该方法利用大型语言模型来提高较小的“婴儿级”模型的训练效果。他们通过重新处理GPT-3.5-turbo的数据集,并以RoBERTa的方式训练较小的模型,使得该模型在语言测...

Read More
2023-08-03 talkingdev

论文:评测YOLO基础物体检测模型:YOLOBench研究报告

最近的一项研究介绍了'YOLOBench',这是一个针对超过550种基于YOLO(You Only Look Once,你只看一次)方法的物体检测模型的性能测评。这些模型在四个独特的数据集和硬件系统上进行了测试。YOLO是一种流行且高效的物...

Read More
2023-08-03 talkingdev

新研究提出‘聚焦线性注意力’方法,提升视觉变压器的效率与功效(GitHub Repo)

最新研究中,科研人员引入了一种名为‘聚焦线性注意力’的新方法,使变压器(Transformers)变得更为高效和强大。研究人员设计了新的映射函数和秩恢复模块,旨在在保持计算需求较低的同时,提升模型的性能。这一突破性...

Read More
2023-08-01 talkingdev

Ollama开源:运行、创建和分享大型语言模型

Ollama是一个发布在GitHub上的项目,专为运行、创建和分享大型语言模型而设计。它为开发者和研究者提供了一个集成的平台,可以方便的搭建、训练并分享他们的语言模型。这些模型可以应用于各种语言处理任务,如机器翻...

Read More
2023-05-26 talkingdev

技术新闻:使用文本预热启动来提高语音语言模型性能

TWIST是一种新的训练语音语言模型(SpeechLMs)的方法,它使用预先训练的文本模型来进行热启动。该方法优于从头开始训练,经验分析强调了模型和数据集规模的重要性。这项研究介绍了迄今为止最大的SpeechLM,并引入了...

Read More
  1. Prev Page
  2. 5
  3. 6
  4. 7
  5. Next Page