“AI屎山”成代码安全的最大威胁
AI辅助开发导致代码泄密事故率暴增了近四成。当AI将开发效率拉满,安全部门却正如愚公般清理越来越多的“代码屎山”。
AI能大大提高代码开发效率,但它也可能把你的密钥、密码、令牌,一起“顺手”提交上去。GitGuardian最新发布的研究报告显示:开启了Copilot的代码仓库,比普通仓库多40%的概率暴露API密钥、密码或令牌。
生成式AI正以前所未有的速度“接管”软件开发的底层逻辑,而这背后,是一场看不见硝烟的安全危机。
AI成泄密“内鬼”
正如二十万的新能源车宣传其加速性能对标几百万的超级跑车但绝口不提底盘性能,出来混,安全债总是要还的。
以副驾驶“自居”的AI编程助手(Copilot)是生成式AI在商业领域最早实现落地的明星产品之一。它能写代码、补函数、自动补全,一定程度上替代“搬砖式”的重复劳动,大幅提升开发效率。但与此同时,一个越来越令人警觉的事实是:
GitGuardian的数据显示,在近几千个样本中,启用了Copilot的仓库中有6.4%存在秘密信息泄露,而平均水平为4.6%。从数字上看也许不起眼,但这意味着AI介入开发后,代码泄密的“事故率”暴增了近四成。
背后的问题比数字更棘手。
AI写的代码,不仅容易“编造”逻辑(幻觉),还经常在配置文件中“明文写入敏感信息”,例如密码、API Key、公钥等。过去,这类信息通常由开发者小心处理,例如使用Secrets Manager进行加密注入。而如今,越来越多初期项目干脆“图省事”,让AI直接写死在文件里。
一位资深安全顾问坦言:“我们需要把LLM当作实习生来看待——会出错、容易误解任务,还喜欢瞎编。”
“AI写的代码藏不住秘密。”这几乎已成行业共识。
CyberArk Labs研究员Mark Cherp指出,AI常常在不该写的地方写出敏感信息。比如,它可能把OpenAI或Anthropic的API Key直接“硬编码”进源代码,上传至GitHub,而开发者对此毫无察觉。
GitGuardian在《State of Secrets Sprawl 2025》报告中指出,仅2024年,公开GitHub平台上就新增泄露凭据2380万个,同比增长25%。这些泄露中,大量发生在Slack、Jira这类安全盲区,或是容器环境中。
更令人担忧的是,70%的泄露密钥在曝光两年后依然有效。其背后的问题并不是没人发现,而是没人有能力第一时间修复。因为修复意味着:代码要改、服务要重启、文档要同步、CI/CD要重新配置——很少有团队能做到。
APIContext CEO Mayur Upadhyaya点明了症结:
“检测只是第一步,真正的问题是缺乏自动化的响应机制。”
谁来为AI代码“擦屁股”?
一位受访的应用安全专家直言,这不是AI的“能力问题”,而是整个软件生产流程正陷入一种“过度信任AI”的结构性风险。
John Smith,Veracode的CTO指出:“AI代码助手缺乏对上下文的安全感知能力,很多时候会复制过去人类写过的不安全逻辑,并在无监督状态下不断‘污染’整个代码供应链。”
一个被忽视的事实是:超过70%的安全技术债来自第三方代码。在生成式AI频繁复用开源组件、参考历史代码的逻辑中,这种“债务”不仅得不到清除,反而被迅速放大。
更糟的是,许多企业尚未建立明确的AI开发安全策略。在很多项目中,“先让AI写一版,再人工补补”的思维主导了整个开发流程。而补丁逻辑本身就难以彻底查出“暗埋”的漏洞。
Chris Wood,来自Immersive Labs的应用安全专家表示:
“我们得正视这个问题:AI不是安全专家,它只是一个熟练的搬运工。”
如何应对“AI屎山”?
安全专家普遍认为,随着LLM生成代码量级的爆炸式增长,开发者对AI的“盲信”也在加剧。
一个AI漏洞,会成为下一个AI的“教材”。
这不是危言耸听。Veracode警告称,如果不尽快建立有效的安全防线,未来的AI将学习今天AI写的错误代码,形成一个“愚蠢闭环”。
解决方案并非没有,但需要从根本上重构开发流程:
- 设置自动化防线:在CI/CD中引入秘密扫描器和安全检测工具,第一时间拦截潜在泄露;
- 人机双审:所有AI生成代码必须经过开发者复查;
- 建立AI安全开发训练机制:让开发者理解AI可能引发的安全漏洞,并建立识别模式;
- 制定明确的AI使用政策:包括在哪些场景使用AI、是否允许AI访问生产数据、是否允许生成配置文件等;
- 推动Key轮换与最小权限访问制度:实现密钥短生命周期管理,杜绝“写死”思维。
写在最后:软件正在吃掉世界,而AI正在吃掉软件
生成式AI正推动软件开发迈入下一个时代,但这场革命的副作用也开始暴露。代码更快了,系统上线更快了,但企业背负的安全债,却也像滚雪球般堆积成山。
在这个背景下,“AI屎山”不再是一种调侃,而是一个正在飞速膨胀的恐怖现实,如果说“软件正在吃掉世界”,那么现在是“AI正在吃掉软件(和AI拉出的大量屎山)”。
如何在享受AI红利的同时,避免掉入“代码屎山”的安全黑洞?或许,安全从业者的第一步,不是去追赶AI,而是先清理那堆已经堆在脚边的“代码屎山”。