漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-01-03 talkingdev

MosaicBERT:针对快速预训练优化的双向编码器

BERT是一种仅有编码器的Transformer。这意味着它通常用于以嵌入形式表示自然语言,而不是用于生成文本。重要的是,它是最早用于搜索的Transformer之一,因为它可以表示查询和要检索的信息。Mosaic团队集成了FlashAtt...

Read More
2023-12-21 talkingdev

论文:利用卷积神经网络进行深度伪造检测

本研究提出了一种深度学习方法,利用四个预训练的卷积神经网络模型来识别视频中的深度伪造人脸,可实现高精度检测。深度伪造技术已成为一种严重的威胁,对政治、社会和经济稳定造成了巨大的影响。该研究提出的方法可...

Read More
2023-12-15 talkingdev

借助CLIP推进医学影像技术开源

本项目探讨了CLIP预训练范式在医学影像领域的应用,讨论了其适应性、应用和限制。它旨在全面了解CLIP如何增强医学图像分析能力。

Read More
2023-12-12 talkingdev

使用预训练文本到图像扩散模型进行视频编辑

RAVE是一种利用现有文本到图像扩散模型来增强视频的视频编辑方法。这种方法可以在保持原始运动和结构的同时实现高质量的视频编辑。

Read More
2023-12-11 talkingdev

MistralMLX文本生成示例

最近,Mistral发布了一个使用MLX生成文本的示例,这是一种基于人工智能的技术,它可以生成高质量的自然语言文本。该示例代码可以在GitHub上找到,它展示了如何使用Mistral的MLX库来生成文本。MLX库是Mistral的核心开...

Read More
2023-12-07 talkingdev

使用扩散模型从单一视角生成3D图像

Zero123++是一个使用扩散原理从单个输入图像生成一致的多视图图像的模型。通过利用预训练的2D模型,Zero123++解决了纹理质量和对齐问题等挑战。

Read More
2023-12-05 talkingdev

万能GPT来袭,美国政府与英特尔启动ScienceGPT训练计划

近日,美国政府与英特尔公司合作启动了一个名为ScienceGPT的训练计划。该计划旨在训练一个万亿参数的GPT模型,以便提高自然语言处理的效率和精度。GPT(Generative Pre-trained Transformer)是一种基于Transformer...

Read More
2023-12-05 talkingdev

SAFE:一种用于模式识别的融合框架开源

SAFE是一种新的模式识别融合框架,它结合了预训练的视觉和语言模型,使用RGB帧、事件流和语义标签进行融合。该框架能够通过各种传感器收集的数据来识别和理解环境中的对象和场景,具有广泛的应用前景。在实现过程中...

Read More
  1. Prev Page
  2. 9
  3. 10
  4. 11
  5. Next Page