漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2023-04-28 talkingdev

TextDeformer:使用文本引导进行几何形变

该研究介绍了一种技术,可以根据文本提示自动变形三角网格,利用可微分渲染和预训练图像编码器,如CLIP和DINO。通过使用雅可比矩阵进行网格变形表示,该方法实现了平滑变形,并避免了噪声梯度,从而实现了大的形状变...

Read More
2023-04-20 talkingdev

技术新闻:Transformer数学问题

本文介绍了Transformer模型训练中需要用到的数学知识,其中包括以下三个核心点: - 计算需要多少个GPU进行训练; - 计算模型的宽度应该是多少; - 不管模型大小,都需要至少训练200B个标记。 除此之外,还有其他有...

Read More
2023-04-19 talkingdev

亚马逊杰出科学家揭秘LLMs

本文是一篇采访亚马逊的两位杰出科学家Sudipta Sengupta和Dan Roth的转录,谈论机器学习技术。在谈话中,两位科学家帮助解密了从单词表示到定制硅上的专业计算等一切事项。从2019年以来,神经网络架构Transformers已...

Read More
2023-04-19 talkingdev

新技术发布:RT-DETR超越YOLO实现实时物体检测

以下是本次新技术发布的三个核心要点: - 实时物体检测一直是计算代价高昂的问题,而新的Real-Time Detection Transformer (RT-DETR)技术通过采用高效的混合编码器和IoU感知查询选择等优化策略,成功解决了这个问题...

Read More
2023-04-15 talkingdev

深度解析Transformer模型及其工作原理

新闻内容: Transformer模型是一种深度学习模型,近年来在自然语言处理任务中表现出色。那么,它究竟是什么,又是怎么工作的呢?以下是本文的重点: - Transformer模型是什么 - Transformer模型的历史和发展...

Read More
  1. Prev Page
  2. 46
  3. 47
  4. 48