美国研发新工具 可重构被网络攻击的模型并定位漏洞

2024-11-12 玩车行家 万阅读 投稿:admin

想象一下,一辆自动驾驶汽车突然开始偏离道路,而此种危险情况并不因传感器故障导致,而是源于一起网络攻击。黑客们可以访问车辆计算机系统核心的深度学习(DL)神经网络,从而危及乘客以及其他驾驶员和行人的安全。

深度学习(图片来源:佐治亚理工学院)

要阻止此类网络攻击,首先需要对其有所了解,不过,这一任务往往极具挑战性。精确识别计算系统中的深度神经网络会面临多重障碍,因为此类神经网络通常受到专利保护,因此除非进行法律干预,否则调查人员也无法访问。另一个常见的问题在于,此类神经网络会经常更新,调查研究人员难以获取此类网络的最新迭代版本。

对此,据外媒报道,美国佐治亚理工学院(Georgia Tech)基于人工智能技术开发出事后网络安全取证工具AI Psychiatry(AiP),能够使用人工智能在遭受网络攻击的设备上恢复特定的运行模型,并发现致命漏洞发生的位置,从而解锁各种神经网络(从自动驾驶汽车到IMDB娱乐数据库)中的恶意软件。

AiP可以在本地网络内存和训练该神经网络的图形处理器上恢复原始的DL模型,而且无需了解该模型的框架、平台或版本。相反,其采用“线索”来重构模型,或重构所有神经网络中常见的组件。

其中包括模型的内存图像中的权重、偏好、形状和层数,这是模型正常运行时,一组已被冻结的比特和字节操作信息。该款内存图像至关重要,因为其可以让AiP将该模型与被攻击后的模型作比较。

电气与计算机工程系博士生David Oygenblik表示:“此类模型通常会根据当前环境不断调整信息,因此攻击者可能会破坏特定模型正在学习的信息,从而导致攻击发生。我们发现,内存图像可以捕捉运行时间内发生的所有变化。”

一旦该模型被恢复,AiP 就可以在另一台设备上运行,让调查人员对其进行彻底的测试,以确定漏洞的具体位置。目前,AiP已经在不同的机器学习框架(TensorFlow和PyTorch)以及数据集(CIFAR-10、LISA和IMDB)上进行了测试,其成功恢复并重新部署了30个模型,准确率达100%。

类似AiP的工具可以让网络调查人员立即查看整个事件经过。解决网络犯罪问题不仅有助于保护用户数据安全,还能确保车辆在道路上安全行驶,从而预防未来可能发生的犯罪行为。

声明:易百科所有作品(图文、音视频)均由用户自行上传分享,仅供网友学习交流。若您的权利被侵害,请联系。