漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-01-31 talkingdev

C语言有界模型检查器:被严重低估的工具

C语言有界模型检查器是一种非常有用的工具,但是在实际应用中却被严重低估。该工具可以帮助开发人员在代码编写过程中发现并解决一些常见的编程错误,例如数组越界、空指针引用等。这些错误在实际应用中可能会导致程...

Read More
2024-01-15 talkingdev

33B参数的网络安全领域语言模型发布

近日,一种33B参数的网络安全语言模型发布,该模型同时具备进攻性和防御性。这是一种通用编码模型,可以协助网络安全任务。这意味着,您可以使用它来保护您的网络,并学习如何防范不同的黑客攻击和漏洞。该模型的发...

Read More
2023-11-22 talkingdev

开放AI应用程序漏洞列表

一份在GitHub上公布的AI应用程序漏洞列表显示,已经发现并负责任地披露了多个AI应用程序的漏洞。这些漏洞包括机器学习模型中的数据泄露、对抗性攻击和针对自然语言处理模型的攻击等。该列表旨在帮助AI开发人员和研究...

Read More
2023-11-20 talkingdev

AI Exploits:开源的真实世界AI/ML漏洞利用案例

近日,一份名为AI Exploits的GitHub仓库发布,其中包含了一系列真实世界中的AI/ML漏洞利用案例,以帮助人们更好地了解和防范这些漏洞。这个项目的目标是通过公开这些案例来增加人们对AI/ML漏洞的认识,同时也希望能...

Read More
2023-11-09 talkingdev

几乎是一个代理人:GPT能做什么

OpenAI的最新GPT接近自主AI代理人的愿景。尽管存在时不时的不准确性等限制,它们能够执行诸如撰写学术论文之类的任务,几乎不需要人类干预。这种AI自主性的飞跃承诺着重大的进步,但也强调了发展的紧迫性,以减轻AI...

Read More
2023-11-07 talkingdev

AI插件诱导注入数据外泄漏洞曝光

最新深入研究揭示了生成式人工智能插件存在的一些新漏洞。在这种情况下,攻击类似于SQL注入,但是攻击者通过感染Google Doc来实现攻击。尽管Google已经解决了这个问题,但安全研究人员还是成功地窃取了其他用户的诱...

Read More
2023-11-07 talkingdev

Giskard:LLM和ML模型的开源测试框架

Giskard是一个Python库,可以自动检测从表格模型到LLM的AI模型的漏洞,包括:性能偏见、数据泄露、虚假相关性、幻觉、毒性、安全问题等等。让您的模型快速、安全地投入生产。在GitHub上安装Giskard或在Colab中尝试。

Read More
2023-11-01 talkingdev

黑客开始武器化AI来改善网络钓鱼攻击

AI已经成为网络钓鱼攻击中的一种常见工具,而黑客正在利用AI来大幅提高网络钓鱼攻击的成功率。AI可以帮助黑客自动化生成高度个性化的欺骗性信息,包括仿冒电子邮件和社交媒体帖子。这些信息看起来似乎是来自受害者信...

Read More
2023-10-27 talkingdev

谷歌扩大漏洞赏金计划以针对AI攻击

谷歌已扩大其漏洞赏金计划(VRP)以包括AI特定的安全问题。这项计划旨在鼓励安全研究人员向谷歌报告其产品和服务中的漏洞,并奖励他们做出贡献。现在,这个计划还将涵盖与AI相关的安全问题。具体来说,谷歌将接受与A...

Read More
2023-10-12 talkingdev

微软计划停止在Windows中使用VBScript以阻止恶意软件传播

微软已决定在Windows中停用VBScript,以防止恶意软件的传播。这一决定旨在提高Windows的安全性,减少攻击者利用VBScript漏洞进行攻击的机会。微软计划首先将VBScript设为按需功能,用户需要时才会启动。而在未来的某...

Read More
  1. Prev Page
  2. 3
  3. 4
  4. 5
  5. Next Page