AI安全的头等大事:建立AI资产清单

AI资产清单不仅是列出工具清单,更需评估其数据安全与合规风险。

随着人工智能(AI)技术的迅猛发展,企业首席信息安全官(CISOs)正面临前所未有的挑战,既要满足企业业务快速迈向智能化的需求,同时又要防御爆炸式增长的AI安全威胁。

风靡全球的DeepSeek只是AI工具潮的一朵浪花,未来还将有更多类似工具快速涌现。这些未经授权的(消费级)AI应用如同一颗颗定时炸弹,潜伏在企业内部,威胁着数据安全与合规性。那么,如何应对这一危机?答案的起点在于建立一个全面的AI资产清单。

AI资产清单:AI安全治理的基石

AI资产清单的建立不仅是必要的,而且正成为强制性要求。没有这一清单,企业如同盲人摸象,无法准确识别AI使用带来的敏感数据暴露风险,也无法应对日益严格的合规性要求。

欧盟《AI法案》(EU AI Act)、ISO 42001标准以及美国国家标准与技术研究院(NIST)的AI风险管理框架(AI RMF)等监管框架已明确将AI资产清单视为治理AI的基础性步骤。

例如,欧盟《AI法案》于2024年8月正式生效,其覆盖范围极为广泛,几乎囊括了所有AI系统,要求企业对其使用的AI技术进行全面登记和风险评估。ISO 42001则为企业提供了一个AI管理系统标准,强调通过清单化管理确保AI的透明性和责任性。而NIST AI RMF虽然是自愿性框架,但其“MAP”功能明确要求企业绘制AI使用图谱,识别潜在风险。

这些框架共同表明,AI资产清单不仅是合规的起点,更是安全治理的核心。

然而,定义“AI资产”本身就是一大难题。欧盟《AI法案》采取广义方法,将几乎所有AI增强功能纳入监管范围;而企业则需自行判断是否应监控每一项AI特性,还是聚焦于生成式AI、大语言模型(LLM)和内容创建系统等高风险领域。专家建议,缩小关注范围至特定AI类别可显著降低清单编制的复杂性,使其更具可操作性。

影子AI:暗中的杀手

除了监管压力,第三方供应商评估也日益要求企业提供AI资产清单,常称之为“审计”或“服务目录”。但合规只是表象,真正的挑战在于识别“影子AI”——那些未获正式批准却已被员工融入日常工作的AI工具。据网络安全公司ZScaler的2024年报告,企业中超过60%的员工承认使用过未经授权的AI工具,其中许多工具通过个人账户或免费版本接入,绕过了IT部门的监控。

影子AI的泛滥使得传统IT治理工具捉襟见肘。员工可能在不知情的情况下将敏感数据暴露给第三方模型,而这些工具的风险往往瞬息万变——一款昨天看似安全的工具,可能因新增AI功能而在一夜之间变成高危对象。例如,DeepSeek的快速流行就暴露了企业对新兴工具的反应滞后,其数据存储政策引发了广泛争议。

AI资产追踪的六大方法

目前,企业采用的AI资产清单编制方法主要有以下六种,每种方法各有优劣:

  • 基于采购的追踪:通过监控新AI工具的采购有效,但无法检测现有工具新增的AI功能或员工自带工具(BYOT)的使用。
  • 手动日志收集:分析网络流量和日志可发现AI相关活动,但耗时且覆盖面有限。
  • 身份与OAuth验证:审查Okta或Entra等身份管理平台的访问日志可追踪部分AI应用,但仅适用于集成这些服务的工具。
  • 云安全访问代理与数据防泄漏(DLP):ZScaler和Netskope等解决方案提供一定可见性,但AI分类功能有限,难以强制执行政策。
  • 云安全态势管理(CSPM):Wiz等工具在AWS和谷歌云中对AI使用有较好洞察,但无法覆盖本地或非云环境。
  • 扩展现有清单:基于风险对AI工具分类可与企业治理对齐,但难以跟上AI采用的快速变化。

这些方法虽能提供一定可见性,却普遍依赖手动操作,效率低下且难以应对动态风险。网络安全专家指出,AI资产清单不仅是列出工具清单,更需评估其风险:这些工具是否从员工输入中学习?其数据保留政策如何?是否符合GDPR、HIPAA等隐私法规?

自动化AI资产工具的崛起

为应对上述挑战,业界正转向更自动化、可重复的AI资产追踪工具。这些工具通过持续监控检测AI使用,包括个人和免费账户,并识别哪些应用在训练企业数据。例如,2025年初推出的Darktrace AI Guardian能够实时扫描网络流量,标记未经批准的AI工具,并生成动态资产清单。此类工具还支持企业制定防护策略,防止员工无意中泄露机密信息。

此外,自动化工具还推动了员工教育。例如,微软在2024年为其企业客户推出了AI使用仪表板,显示员工使用的AI工具并标注其安全性,帮助员工分辨哪些工具获批使用。这种透明性不仅降低风险,还增强了员工对合规工具的信任。

安全创新与合规的双赢

AI治理不应仅被视为风险管理任务,更是一个抓住创新机会的窗口。领先建立AI资产清单的企业能够主动接触员工,了解其真实需求和用例,引导他们转向安全、批准的AI解决方案。安全领导者通过与AI委员会和高层分享这些数据,可提供基于现实的洞察,超越理论政策讨论。

例如,谷歌在其2024年AI安全报告中提到,通过资产清单识别员工对生成式AI的高需求后,该公司迅速部署了内部批准的生成工具,不仅提升了生产力,还降低了外部工具带来的风险。这种做法表明,AI资产清单不仅是防御性措施,更是推动企业安全使用AI,在这场人工智能革命中取得竞争优势的的战略举措。

前一篇“美杜莎”杀疯了,一月内扫荡300家美国关键基础设施机构