漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2023-11-09 talkingdev

几乎是一个代理人:GPT能做什么

OpenAI的最新GPT接近自主AI代理人的愿景。尽管存在时不时的不准确性等限制,它们能够执行诸如撰写学术论文之类的任务,几乎不需要人类干预。这种AI自主性的飞跃承诺着重大的进步,但也强调了发展的紧迫性,以减轻AI...

Read More
2023-11-09 talkingdev

论文:跨视角训练提升小型语言模型效率

跨视角训练(SCT)可以提高小型语言模型的性能,使其能够生成先前仅可由较大模型实现的句子嵌入,从而优化性能和计算效率。

Read More
2023-11-08 talkingdev

Xbox携手Inworld AI开发AI工具以推动游戏开发创新

微软的Xbox与Inworld AI合作,提供AI驱动的游戏开发工具,聚焦于叙事和角色创造,以促进和丰富游戏设计流程。Inworld AI的自然语言生成技术将被应用于游戏开发中,以帮助设计师更快地构建角色和编写对话。这种技术将...

Read More
2023-11-07 talkingdev

HelixNet:开源三合一模型显著提升生成性能

最近,一项名为HelixNet的新研究显示,如果微调Mistral基础架构的三个任务特定模型,一个用于生成,一个用于批判,最后一个用于再生,则整个系统的生成性能显着提高。该研究使用合成数据来调整这些模型。HelixNet的...

Read More
2023-11-02 talkingdev

HF开源结合语言模型和计算机视觉进行开放式分词

Hugging Face Space最近发布了两项重要技术:Segment Anything和MetaCLIP,这两项技术结合了最强大的语言模型和计算机视觉技术,能够基于文本输入进行开放式分词。开放式分词是计算机视觉领域中一个新颖且令人兴奋的...

Read More
2023-11-02 talkingdev

只需1美元的算力,为Mistral进行微调

Mistral是一种基于深度学习的自然语言处理模型,其7B模型是目前最大的公开模型之一。现在,您可以使用Jupyter笔记本,根据自己的数据集对Mistral的7B模型进行微调,并仅需1美元的计算费用。微调Mistral模型可以提高...

Read More
2023-11-02 talkingdev

论文:大型语言模型从错误中吸取教训

最近的一项研究引入了一种名为“从错误中学习”(LeMa)的方法,通过从错误中学习来教授大型语言模型解决数学问题,类似于人类学生通过纠正错误来提高自己。

Read More
2023-11-01 talkingdev

Phind称其模型打败GPT-4,速度等同于GPT-3.5,支持16k上下文编码

据最新消息,Phind模型在编码方面的表现已经超过了目前最强的GPT-4。该模型支持16k上下文编码,在编码速度上也不逊于GPT-3.5。Phind模型是一种基于自然语言处理技术的编码器,可以用于编写各种程序代码。该模型采用...

Read More
  1. Prev Page
  2. 112
  3. 113
  4. 114
  5. Next Page