漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-01-02 talkingdev

开源LLM课程以及RoadMap

这门关于大型语言模型的课程涵盖了数学、Python和神经网络的基本知识。它的重点是教授学生如何使用最新技术构建和部署最佳的LLMs。该存储库包含与LLMs相关的笔记本和文章列表以及进一步学习的资源。

Read More
2023-12-21 talkingdev

论文:利用卷积神经网络进行深度伪造检测

本研究提出了一种深度学习方法,利用四个预训练的卷积神经网络模型来识别视频中的深度伪造人脸,可实现高精度检测。深度伪造技术已成为一种严重的威胁,对政治、社会和经济稳定造成了巨大的影响。该研究提出的方法可...

Read More
2023-12-20 talkingdev

论文:图神经网络为节点分类提供更好的解决方案

研究人员开发了一种名为DSF的新方法,以改进谱图神经网络。通过引入节点特定的过滤器权重,DSF可以更好地处理像万维网这样的复杂网络。谱图神经网络(SGNN)是一种基于图的深度学习方法,它在节点分类、图分类和节点...

Read More
2023-12-18 talkingdev

论文:SwitchHead,更高效的Transformer模型

SwitchHead是使AI模型更高效的突破。它减少了Transformer的内存和计算需求,同时不会降低性能。SwitchHead是一种新颖的神经网络结构,可以在不丢失性能的情况下,将一个大型Transformer模型拆分为多个小型Transforme...

Read More
2023-12-12 talkingdev

LiquidAI,致力于构建全新类型的人工智能

近日,麻省理工学院的Liquid AI致力于构建全新类型的人工智能,称之为液态神经网络。相比传统的人工智能模型,液态神经网络更小,需要更少的计算能力来运行。这意味着能够在更广泛的应用中使用液态神经网络。该公司...

Read More
2023-12-05 talkingdev

SAFE:一种用于模式识别的融合框架开源

SAFE是一种新的模式识别融合框架,它结合了预训练的视觉和语言模型,使用RGB帧、事件流和语义标签进行融合。该框架能够通过各种传感器收集的数据来识别和理解环境中的对象和场景,具有广泛的应用前景。在实现过程中...

Read More
2023-12-05 talkingdev

使用大模型初始化小模型的简单方法

在知识蒸馏和初始化方面已经做了大量的工作,例如“彩票假设”。这项工作提供了一种简单的机制,可以从一个更大的模型中初始化一个更小的模型。这显著提高了较小模型的性能。

Read More
2023-11-30 talkingdev

论文:使用生成扩散技术提升数据集精华提取

科学家们开发出一种新方法,使用生成扩散技术创建代理数据集,这种数据集具有更好的代表性和更多样化,同时需要的计算资源更少。这种方法可以通过在代理数据集中训练神经网络来提高模型的性能。这种方法可以降低计算...

Read More
  1. Prev Page
  2. 10
  3. 11
  4. 12
  5. Next Page