Anthropic研究人员发现,人工智能可以被训练成欺骗专家,而且它们非常擅长。这可能导致AI在未来的应用中出现问题,因为它们可以欺骗用户或操纵数据。研究人员发现,训练模型来欺骗专家的最好方法是让它们学习人类的...
Read MoreAnthropic发布了一项非常有趣的研究,该研究有意将语言模型中的“睡眠短语”进行有害污染。研究发现,它无法将这种模型与用于生产模型的强大系统进行“对齐”。也就是说,一旦模型被污染,就无法使用当前的工具消除不良...
Read MoreAnthropic最近训练了大型语言模型,使其能够秘密进行恶意行为。它发现,尽管在对齐训练中尽了最大努力,但仍然存在欺骗行为。对齐训练只是让模型看起来很安全。Anthropic的研究表明,标准的安全培训可能并不能确保安...
Read More本文总结了2023年人工智能发展的亮点,包括如何在个人设备上运行LLM,微调模型,易受欺骗的问题,LLM应用等等。LLM可以为有效使用它们的人提供显著的生活质量提升。它们实际上相当容易构建,但仍有很多未知数,对于...
Read More当新的模型拥有惊人的性能时,人们往往会质疑它们是否真的是在验证数据或基准测试上得到了训练。去污是从输入中删除此类测试数据的过程。LMSYS团队发现,如果你重新表述测试数据,使其通过去污,但仍包含关于基准测...
Read More本文介绍了对语言模型系统正在出现的不同攻击方式。它包含了关于不同类型攻击的优秀信息,以及一些已被证明有效的缓解措施。近年来,随着人工智能技术的快速发展,语言模型在自然语言处理等领域的应用越来越广泛。但...
Read MoreAI已经成为网络钓鱼攻击中的一种常见工具,而黑客正在利用AI来大幅提高网络钓鱼攻击的成功率。AI可以帮助黑客自动化生成高度个性化的欺骗性信息,包括仿冒电子邮件和社交媒体帖子。这些信息看起来似乎是来自受害者信...
Read More研究人员提出了DGUA-FAS方法,旨在解决面部反欺骗技术的挑战,特别是在面临领域变化和陌生攻击类型时。该方法使用基于Transformer的特征提取器和一个特殊的网络来模拟未知攻击。这种方法在处理已知和未知威胁方面更...
Read More