[轉載] 研究人員展示如何把惡意程式藏匿在AI模型中

3名資安研究人員上周發表了一份名為EvilModel的研究報告,他們把惡意程式藏匿在神經網路的模型中,不僅可嵌入大型的惡意程式,還能躲避偵測,甚至不影響該AI模型的效能。

這3名資安研究人員為Zhi Wang、Chaoge Liu與Xiang Cui指出,駭客為了躲避偵測,經常將惡意程式的通訊藏匿在諸如Twitter、GitHub甚至是區塊鏈等合法服務中,這些方法完全不需要駭客自行部署伺服器,受害者也無法藉由摧毀合法服務來保護自己,只不過,這些管道通常只適用於少量的訊息,而無法用來遞送檔案較大的酬載或攻擊程式,而這也是他們選擇神經網路模型的原因。

由於神經網路模型多半具備不可解釋的特性,再加上良好的泛化能力,因此,若把惡意程式直接嵌入神經網路模型中,對於該模型的效能影響非常的輕微,此外,因神經網路模型的架構沒變,於是還能躲過防毒軟體的偵測。

因此,研究人員成功地把高達36.9MB的惡意程式放進178MB的AlexNet模型,不僅只損失不到1%的精確度,還未被任何的防毒引擎察覺。