微软的ChatGPT“屠龙刀”砍向网络安全

继浏览器和生产力工具两大战略市场的压倒性胜利之后,微软终于将ChatGPT的“屠龙刀”砍向了网络安全。

本周二,在首届Microsoft Secure活动中,微软宣布推出基于ChatGPT的“安全副驾驶”(Security Copilot)产品,宣称将“帮助防御者以机器的速度和规模进行端到端防御”。

网络安全是人工智能最大的细分市场,而ChatGPT又是引领当下人工智能技术革命的“核弹级产品”,在网络安全攻防两端掀起了新一轮人工智能技术军备竞赛。作为最大的网络安全公司之一,微软将ChatGPT能力融入网络安全产品,似乎是顺理成章的事情,但同时也让所有网络安全厂商都“压力山大”。

据微软介绍,微软的Security Copilot是第一款使防御者能够以AI的速度和规模移动的安全产品,防御者能以机器的速度和规模进行端到端防御。

微软指出,今天的网络安全专业人士正在与多产、无情和老练的攻击者进行不对称的战斗。为了保护他们的企业(和数据),防御者必须应对大量隐藏在噪音中的威胁,而全球性的熟练安全专业人才短缺使这一挑战变得更加严峻。

把ChatGPT变成安全大脑

据悉,微软的Security Copilot把高级大型语言模型(LLM)与微软的网络安全模型相结合。与通用的ChatGPT大语言模型应用不同,这种面向网络安全专业领域的模型包含一组不断增长的安全专业技能,并持续学习微软全球威胁情报和每天超过65万亿个信号数据。Security Copilot在微软Azure的超大规模基础结构上运行时,还提供企业级安全和隐私合规体验。

与常规网络安全产品不同,网络安全专业人士只需向Security Copilot发送提示(编者:几乎任何问题或请求,也可以直接提交文件、URL、代码片段或威胁指标),后者会动用安全模型的全部功能来分析事件或执行任务,从而最大限度地发挥最新大型语言模型功能的价值。

微软指出这是ChatGPT网络安全用例所独有的:

“我们的网络训练模型增加了一个学习系统来创造和调整新技能。Security Copilot可以帮助用户发现其他方法可能遗漏的内容,并增强安全分析师的工作能力和效率。在常见的网络安全应用场景中,Security Copilot能够帮助网络安全人员提高威胁检测质量、响应速度,并加强和提高安全态势能力。”

产品演示:用自然语言让Security Copilot分析安全事件并给出可行动的事件响应建议

根据微软的官方博客,Security Copilot的关键产品能力和主要卖点如下:

  • 持续访问最先进的OpenAI模型,以支持最苛刻的安全任务和应用程序;
  • 一个特定于安全的模型,受益于持续的强化、学习和用户反馈,以满足安全专业人员的独特需求;
  • 由企业的安全产品(产生的数据)和微软每日监测的65万亿个威胁信号提供可见性和威胁情报馈送,确保安全团队能够根据最新的攻击TPP知识和情报进行操作;
  • 与微软的端到端安全产品集成,以安全信号为基础提供高效的体验;
  • 不断上架的独家技能和提示交互,可持续提升安全团队的专业知识,并帮助资源有限的企业设定和实现更高的安全标准。

微软宣称,Security Copilot将为企业网络安全市场带来以下三大价值:

  • 大幅加快事件响应速度,自动撰写事件报告。借助Security Copilot,防御者可以在几分钟内响应安全事件,而不是几小时或几天。Security Copilot通过基于自然语言的调查,提供关键的分步指导和上下文信息,从而加快事件调查和响应速度,并能快速总结任何流程或事件并撰写报告。
  • 提高威胁检测和搜寻能力。攻击者躲在噪音和微弱信号后面。借助Security Copilot,防御者可以发现原本可能会被遗漏或疏忽的恶意行为和威胁信号。Security Copilot能实时显示威胁的优先级,并通过微软全球威胁情报的持续推理来预测威胁参与者的下一步行动。Security Copilot还具备代表安全分析师进行威胁搜寻、事件响应和漏洞管理等安全任务所需的专业知识和技能。
  • 缓解人才短缺问题。Security Copilot能够回答与安全相关的问题(从基本到复杂),从而提高防御者的技能。Security Copilot还能不断从用户交互中学习,适应企业偏好,并就最佳行动方案向防御者提供建议,以实现更安全的结果。它还支持新团队成员的学习,帮助他们在发展过程中接触到新的技能和方法。

微软透露,Security Copilot还与端到端的Microsoft Security产品集成,随着时间的推移,它还将扩展到不断增长的第三方产品生态系统因此,Security Copilot不仅是一个大型语言模型,而且是一个持续学习系统,使组织能够以机器速度进行防御。

打消大语言模型的隐私焦虑

对于业界普遍关注的大语言模型的隐私和数据安全问题,微软声称在开发Security Copilot时充分考虑了(第三方)安全团队的需求,用户的数据不会被用于训练基础AI模型,并受到最全面的企业合规性和安全控制的保护。微软给出了以下三点数据安全承诺:

  • 您的数据就是您的数据。您可以拥有和控制,也可以选择如何利用和获利。
  • 您的数据不会用于训练或富化其他用户使用的基础AI模型-您的组织之外没有人会从针对您的数据或业务流程进行训练的AI中受益。
  • 您的数据和AI模型每一步都受到业内最全面的企业合规性和安全控制措施的保护。

微软承诺,在保持私密性的同时,每个Security Copilot用户交互都可以轻松地与其他团队成员共享,以加快事件响应,更有效地协作处理复杂问题并培养集体技能。

参考链接:

https://www.microsoft.com/en-ie/security/business/ai-machine-learning/microsoft-security-copilot?rtc=1

前一篇值得关注的15家欧洲网络安全创业公司
后一篇白宫禁止美国政府部门使用商业间谍软件