最近,Fed3DGS发布了一种基于联邦学习的3D重建框架,该框架采用3D高斯投影(3DGS)技术,能够实现在广阔区域内的去中心化场景构建。这种创新方法不仅提高了3D重建的效率和精确度,还保证了数据处理的隐私性。联邦学...
Read More随着大型语言模型与外部工具的配对越来越多,数据泄露的新风险已经出现。本文介绍了一种系统性的方法来评估这些人工智能系统保护私人信息的能力。 研究人员发现,当前的大型语言模型在保护隐私方面存在一些问题。它...
Read More一份在GitHub上公布的AI应用程序漏洞列表显示,已经发现并负责任地披露了多个AI应用程序的漏洞。这些漏洞包括机器学习模型中的数据泄露、对抗性攻击和针对自然语言处理模型的攻击等。该列表旨在帮助AI开发人员和研究...
Read More数据污染和其他数据管道攻击是网络安全界面临的巨大挑战,同时也是大多数AI组织的盲点。本文介绍了这些攻击的方式,并提供了代码以帮助未来进行缓解。AI数据管道遭受攻击可能会导致数据泄露,模型失效,模型被篡改等...
Read MoreGiskard是一个Python库,可以自动检测从表格模型到LLM的AI模型的漏洞,包括:性能偏见、数据泄露、虚假相关性、幻觉、毒性、安全问题等等。让您的模型快速、安全地投入生产。在GitHub上安装Giskard或在Colab中尝试。
Read More据路透社报道,四位知情人士透露,谷歌已经建议员工不要在OpenAI的ChatGPT或谷歌自己的Bard等聊天机器人中输入机密信息,以防泄露。 ### 以下是该新闻的三个要点: - 谷歌已经警告员工不要在聊天机器人中输入机密...
Read More据报道,微软计划向关注数据泄露和合规性的企业用户提供一个隐私关注的ChatGPT版本。该产品将在专用服务器上运行ChatGPT,并保护敏感数据不被用于训练语言模型。它的价格可能是目前使用ChatGPT客户支付费用的10倍。O...
Read More数字杂物:学会放手,停止囤积太多的数据 新闻内容: - 数字杂物囤积的问题已经越来越严重,许多人无法处理自己的数据,并且占用了大量的存储空间。 - 由于大量的无用数据,电脑运行速度缓慢,并且可能会受到数据...
Read More