漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2023-12-20 talkingdev

字节跳动秘密使用OpenAI技术开发竞争对手

据内部通讯透露,字节跳动一直在违反OpenAI的服务条款,秘密使用其技术开发竞争性的语言模型Project Seed。这些通讯还显示,字节跳动计划“掩盖”这种违规使用的证据。OpenAI是由伊隆·马斯克等人创办的人工智能研究公...

Read More
2023-12-19 talkingdev

论文:使用语言模型提升自动驾驶能力

DriveMLM是一种新的框架,它使用大型语言模型来提高自动驾驶的能力。这个系统将语言决策与车辆控制相结合,不仅与现有的自动驾驶系统集成,而且在模拟中表现更好。

Read More
2023-12-18 talkingdev

论文:LLMs如何提高3D场景理解能力

一种新的研究方法通过在大型语言模型中引入物体标识符来改善对3D场景的理解并回答相关问题。该方法专注于识别和关联场景中的物体,在解释复杂的空间关系方面取得了有希望的结果,使得人工智能更加擅长这方面的任务。

Read More
2023-12-18 talkingdev

AI新闻:从红到黑

本文包含几个新的人工智能发展故事。这些故事涵盖了人工智能领域的竞争、行业就业现状、人工智能战略、Sourcegraph的Cody AI编码助手正式上线等。多年来致力于为其代码添加注释的工程师们为大型语言模型推理其代码提...

Read More
2023-12-18 talkingdev

OpenAI-如何优化大型语言模型的效果?

本指南分享了优化大型语言模型效果的策略和技巧。这些方法有时可以组合使用以获得更好的效果。其中一些示例仅适用于最具能力的模型。获取更好效果的策略包括编写更清晰的说明、提供参考文本、将复杂任务分解成简单子...

Read More
2023-12-15 talkingdev

微软轻量可部署本地的语言模型Phi-2发布

微软的最新模型现已在HuggingFace上提供研究用途。Phi-2是一种基于Transformers的语言生成模型,它被训练用于生成各种文本,包括问答、对话和自然语言生成。该模型采用的是自回归模式,即在生成下一个单词或字符时,...

Read More
2023-12-15 talkingdev

HyperRouter方法开源,提高LLM训练效率

HyperRouter方法提高LLM训练效率。该方法通过动态调整路由器参数,进一步提高了大型语言模型训练的效率。

Read More
2023-12-15 talkingdev

论文:一种高效压缩LLM模型方法

这项研究介绍了一种使用降阶建模压缩大型语言模型的方法,可以显著减少内存和时间限制,而无需高端硬件。由于大型语言模型在自然语言处理中的应用越来越广泛,因此压缩这些模型以提高计算效率变得尤为重要。研究人员...

Read More
  1. Prev Page
  2. 90
  3. 91
  4. 92
  5. Next Page