人工智能安全的“命门”:数据安全
消费者最为关心的自动驾驶技术,就属于容易“中毒”的人工智能技术。
人工智能正在成为网络安全技术游戏规则的颠覆者。它不仅极大地扩展了安全团队管理和监控系统与数据的能力,而且还提高了事件响应和恢复的弹性,显著增加了成功攻击的难度并减少了攻击的回报。
但人工智能自身仍然是一种数字技术,这意味着它也面临安全威胁,尤其人工智能驱动的攻击。今天的数字社会越来越依赖于系统智能和自主性,从业务流程到运输再到医疗健康,安全漏洞造成的损失会随着系统可能性的下降而飙升。
任何一家计划开发或部署人工智能技术的企业都必须认真审视他们的人工智能安全策略,了解漏洞所在的位置以及可以采取哪些措施来消除威胁。
根据Robotics Biz的报道,迄今为止,对人工智能系统最普遍的攻击类型是对处理大数据的算法用“数据投毒”的方式进行操纵,干扰其输出结果。简单来说,就是通过将漏洞或恶意数据引入系统,导致算法输出预测结果产生偏差。
任何联网人工智能系统都可能遭遇这种类型的攻击,此类攻击通常会持续一段时间,因为其影响是渐进的,但损害是持久的。最好的对策是简化AI算法和数据摄取过程,以及对数据条件进行严格控制,以便在数据进入处理链之前发现错误或恶意数据。
通过数据源“投毒”
人工智能的最大弱点之一就是依赖大量数据的“投喂”。这意味着攻击者可以在不直接攻击人工智能本身的情况下也能破坏安全性。CSET(安全与新兴技术中心)最近发表的一系列论文显示,白帽黑客已经找到越来越多的方式攻击人工智能的数据源来控制人工智能。
例如消费者最为关心的自动驾驶技术,就属于容易“中毒”的人工智能技术。攻击者对自动驾驶算法的攻击可导致自动驾驶汽车迎头撞上对向驶来的车辆,或者将汽车加速到危险速度,对于工厂中的人工智能系统来说,这意味着可能导致业务流程突然失控。然而,与传统的网络攻击不同,攻击人工智能的目的通常不是破坏或摧毁人工智能系统,而是控制它以使攻击者受益,例如转移数据、资金或制造麻烦。
斯坦福大学密码学教授Dan Boneh指出,基于图像的训练数据是最容易受到攻击的数据之一。通常,黑客会使用快速梯度符号法(FGSM),该方法会在训练图像中产生人眼无法察觉的像素级变化,从而给训练模型造成混乱。这些“对抗性样本”很难检测到,但却能以多种方式改变算法的结果,即使攻击者只能访问输入数据、训练数据和输出结果。此外,随着人工智能算法越来越依赖开源工具,黑客也将有更多的机会使用和研究算法。
如何保护人工智能
人工智能技术企业如何保护自己的算法?现阶段能够采取的三个关键步骤是:
- 在整个数据环境中维护尽可能严格的安全协议。
- 确保所有AI操作都被记录并被审计跟踪。
- 实施强大的访问控制和身份验证。
此外,企业应追求更长期的安全战略目标,例如制定专门用于AI培训的数据保护政策,教育员工了解AI的风险以及如何发现错误结果,保持持续的动态风险评估机制并且保持前瞻性。
没有任何数字系统可以100%安全,无论它多么智能。与传统平台相比,人工智能系统的安全性问题更为微妙,但后果同样严重,因此企业需要立即更新其安全策略以应对这一新的现实威胁,而不是亡羊补牢。
就像传统技术的安全防护一样,人工智能的防护也主要包括两方面的工作:减少攻击的手段和机会,以及在攻击确实发生时尽可能快地减少损害并恢复声誉。
参考资料:
https://www.afcea.org/content/hacking-poses-risks-artificial-intelligence