迪斯尼泄漏4400万条机密数据,只因员工“尝鲜”AI工具
GoUpSec点评:企业和关键基础设施中悄悄蔓延的消费级AI工具如果缺乏有效监管和控制,注定会引发大规模数据安全灾难。“AI安全”,将取代“网络安全”和“数据安全”,成为2025年CISO的头号威胁。
2023年7月,迪斯尼前员工马修·范·安代尔收到一条令他毛骨悚然的Discord私信:”我掌握了你私人生活和工作的敏感信息。”对方不仅复述了他几天前在Slack工作群中与同事的午餐对话,还陆续抛出了他的信用卡号、社保账号,甚至家中智能摄像头Ring的登录凭证。
安代尔意识到自己被黑客入侵,立即联系了Disney的网络安全团队。次日,黑客团体Nullbulge在网上发布了超过4400万条Disney内部消息,包括客户隐私信息、员工护照号码和主题公园及流媒体收入数据。
一场“影子AI”引发的重大数据泄漏事故
时隔两年后,迪斯尼披露了这场重大数据泄露事件的调查结果,黑客的突破口居然是员工个人设备上安装的“AI工具”。
2023年2月,安代尔在家用电脑通过代码托管平台GitHub下载了一款”免费AI图像生成工具”。这款表面正常的软件实则为恶意程序,黑客借此植入键盘记录木马,劫持了他存储所有密码的1Password管理器。
更致命的是,范·安代尔的1Password账户未启用双因素认证,黑客获取主密码后提取了密码管理器中数百个账号口令。通过窃取的Slack会话cookie,黑客直接登录其迪斯尼内部账户,潜伏五个月后突然发难。私人邮箱、儿童Roblox游戏账号、社交媒体悉数沦陷,甚至迪斯尼的财务数据、员工护照信息等核心资产也遭泄露。
“影子AI”:企业安全的新毒瘤
迪斯尼的遭遇这并非孤例。谷歌Mandiant调查显示,2023年以牟利为目的的网络入侵中,近40%使用窃取凭证,较2022年翻倍。而”影子AI”(员工未经审批使用外部AI工具)正成为黑客的新跳板。

影子AI的主要风险 来源:GoUpSec
根据2024年Work Trend Index Annual Report,78%的AI用户在工作中使用自带工具,52%不愿承认使用,显示出员工对影子AI的隐秘依赖。另一项研究表明,74%的ChatGPT(一种与DeepSeek性能接近的生成式AI应用)使用非公司账户,74%的Gemini和Bard使用也是如此,影子AI已经在企业中无处不在。
员工使用个人AI工具的动机多种多样:员工可能因现有工具效率低下而转向更便捷的AI解决方案,或希望提升个人和团队生产力。然而,风险不容忽视。IBM的研究显示,超过三分之一(38%)的员工承认在未经雇主许可的情况下与AI工具共享敏感工作信息,这可能导致数据泄露、合规违规和声誉损害。此外,影子AI工具在外部服务器上存储数据,增加被黑客攻击的风险,尤其是在使用开源AI模型时。
2025年CX Trends Report显示,某些行业影子AI使用率同比增长250%,如金融和医疗行业,凸显了监管的紧迫性。
管理影子AI:平衡创新与安全
面对影子AI的挑战,企业需要采取综合策略,减少风险同时保留AI带来的创新潜力。首先,制定清晰的AI使用政策是关键,明确哪些工具可以被批准使用,并教育员工关于影子AI的潜在危险。其次,提供经安全验证的AI工具,如企业级(私有化部署)AI替代方案,满足员工需求,同时确保数据保护。
技术解决方案也至关重要。部署监控和报告系统以检测未经授权的AI使用,如维护AI工具黑名单和白名单,可以有效防止影子AI的扩散。此外,定期审计和跨部门合作可以帮助组织在治理和创新之间找到平衡点。
最后,创造一个开放的沟通环境,鼓励员工报告他们希望使用的AI工具,并通过集中平台评估和批准新工具,可以减少影子AI的发生。例如,Dell的研究显示,91%的受访员工曾尝试生成式AI,71%在工作中使用,显示出员工对AI的强烈需求。通过教育和支持,企业可以引导这种需求走向安全轨道。