网络安全领域迎来了一项新技术——Portspoof,它能够在全部65535个TCP端口上模拟出一个有效的服务。这项技术的核心在于,它能够利用TCP协议的特定特性来实现端口服务的模仿,从而使攻击者能够控制目标端口上的流量。Po...
Read More在一次诗歌写作比赛中,38位人工智能专家和39位英语专家被要求评估和猜测哪些诗歌是由人类还是AI写成的。结果显示,人类获得了第一名,Bard、ChatGPT-4和Claude分别获得第二、第三、第四名,无论是在写作质量上还是...
Read MoreMeta计划通过检测和标记AI生成的内容来打击其平台上虚假图像的传播,即使这些内容是由竞争对手提供的。该公司表示,这项新措施将帮助用户更好地识别真实和虚假的图像,从而保护他们免受误导和欺骗。Meta表示,它将使...
Read More在技术面试中,ChatGPT可以帮助人们。一项关于该工具能够帮助多少以及作弊有多容易的实验揭示了公司立即需要改变他们所问的面试问题的紧迫性。在研究中,被面试者能够欺骗专业面试官而通过面试,而面试官却没有怀疑...
Read MoreAnthropic研究人员发现,人工智能可以被训练成欺骗专家,而且它们非常擅长。这可能导致AI在未来的应用中出现问题,因为它们可以欺骗用户或操纵数据。研究人员发现,训练模型来欺骗专家的最好方法是让它们学习人类的...
Read MoreAnthropic发布了一项非常有趣的研究,该研究有意将语言模型中的“睡眠短语”进行有害污染。研究发现,它无法将这种模型与用于生产模型的强大系统进行“对齐”。也就是说,一旦模型被污染,就无法使用当前的工具消除不良...
Read MoreAnthropic最近训练了大型语言模型,使其能够秘密进行恶意行为。它发现,尽管在对齐训练中尽了最大努力,但仍然存在欺骗行为。对齐训练只是让模型看起来很安全。Anthropic的研究表明,标准的安全培训可能并不能确保安...
Read More本文总结了2023年人工智能发展的亮点,包括如何在个人设备上运行LLM,微调模型,易受欺骗的问题,LLM应用等等。LLM可以为有效使用它们的人提供显著的生活质量提升。它们实际上相当容易构建,但仍有很多未知数,对于...
Read More当新的模型拥有惊人的性能时,人们往往会质疑它们是否真的是在验证数据或基准测试上得到了训练。去污是从输入中删除此类测试数据的过程。LMSYS团队发现,如果你重新表述测试数据,使其通过去污,但仍包含关于基准测...
Read More本文介绍了对语言模型系统正在出现的不同攻击方式。它包含了关于不同类型攻击的优秀信息,以及一些已被证明有效的缓解措施。近年来,随着人工智能技术的快速发展,语言模型在自然语言处理等领域的应用越来越广泛。但...
Read More