漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-04-04 talkingdev

[论文推荐]CLIP模型存在后门攻击漏洞:仅需少量数据即可实现近100%攻击成功率

最新研究发现,当前广泛应用的CLIP(Contrastive Language-Image Pretraining)多模态模型存在严重的安全隐患。根据arXiv最新论文披露,攻击者通过数据投毒(poisoning)方式植入后门,仅需污染0.5%的训练数据即可实...

Read More
2025-03-31 talkingdev

[开源]Awesome Vision-to-Music Generation:视觉转音乐生成技术全景图

GitHub热门项目Awesome Vision-to-Music Generation系统性地整理了视觉到音乐(V2M)生成领域的前沿进展,涵盖学术研究突破与工业级应用方案。该项目持续更新的资源库整合了三大核心要素:1)基于深度学习的跨模态生...

Read More
2025-02-24 talkingdev

谷歌发布SigLIP2:图像与文本编码模型的重大升级

SigLIP2作为SigLIP的升级版本,在多个方面实现了显著改进。SigLIP原本是一款广受欢迎的联合图像与文本编码模型,而SigLIP2在零样本分类性能上取得了重大突破,这一性能曾是CLIP模型的标志性成果。此次升级不仅提升了...

Read More
2024-10-14 talkingdev

Clipscreen开源:可在视频会议中轻松共享屏幕区域

近日,一款基于X11的全新工具引起了广泛关注,该工具允许用户在任意视频会议中共享特定的屏幕区域。这一创新的解决方案旨在提高远程协作的效率,用户只需简单的操作即可选择需要共享的屏幕部分,而不是整个桌面。这...

Read More
2024-07-16 talkingdev

LAPT自动化异常值检测:提高视觉语言模型的表现

近日,研究人员提出了一种新的方法——标签驱动的自动提示调整(LAPT),用于视觉语言模型如CLIP的异常值检测。这种新方法可以自动识别出数据集中的异常值,提高模型在处理各种情况时的灵活性和准确性。通过LAPT,可以更...

Read More
2024-06-27 talkingdev

玩具反斗城携手AI技术,打造首支Sora文本到视频广告片

玩具反斗城(Toys “R” Us)与广告代理Native Foreign合作,利用OpenAI的文本到视频工具Sora,创作了一部品牌影片。这部影片通过AI生成的视频片段,讲述了公司创始人的故事。Sora自2月份推出以来,尚未对公众开放。该...

Read More
2024-06-19 talkingdev

多视图图像赋能3D表征学习:Duoduo CLIP模型发布

近日,一款名为Duoduo CLIP的3D表征学习模型引起了业界的广泛关注。与传统的3D表征学习模型不同,Duoduo CLIP采用多视图图像,而非点云数据作为输入。这种独特的设计,使得Duoduo CLIP在3D表征学习的效果上,可能会...

Read More
2024-06-04 talkingdev

PPAD:基于CLIP的胸部X光异常检测研究

该研究探讨了如何利用CLIP(Contrastive Language-Image Pre-training)方法进行胸部X光片的异常检测。CLIP是一种新兴的多模态学习方法,它通过对图像和文本的联合训练,实现了在多个任务中的优异表现。在本研究中,...

Read More
  1. 1
  2. 2
  3. 3
  4. Next Page