2023年5月1日,谷歌的威胁情报团队(GTIG)发布了警告,首次确认了一起“由AI辅助开发”的零日利用事件,基于现有的证据和披露线索。
GTIG指出,此次攻击目标是一款未公开名称的开源Web管理工具,攻击者试图绕过双因素认证(2FA),但在广泛利用之前被及时拦截。这一事件表明,攻击者越来越频繁地利用AI进行漏洞发现和武器化。
在其博文中,GTIG提到,调查显示此次攻击所使用的脚本包含大量带有教学性质的文档,整体代码风格与大型语言模型常见的训练语料中的Python写法相似。
谷歌并未具体透露使用了哪种大型语言模型,但强调该漏洞类型更符合AI擅长发现的问题,区别于通常的内存破坏或通过模糊测试、静态分析检测到的输入验证缺陷,而是更倾向于高层语义和业务逻辑。
谷歌已及时通知相关软件开发者,并表示这一行动有效打断了攻击链。对于普通用户和企业管理员而言,这类事件直接意味着,AI并不会自动攻破所有系统,但攻击门槛可能会持续降低。
过去需要安全研究经验才能完成的漏洞分析、脚本整理和利用验证,如今可能被AI大幅缩短时间和降低人力成本,因此面向互联网上开放的管理后台的风险将进一步增加。