】 【打 印】 
【 第1頁 第2頁 第3頁 第4頁 】 
AI殺毒軟件市場尚為一片藍海
http://www.crntt.hk   2020-05-06 14:28:55
 

  此外,模型竊取攻擊也值得注意。由於算法模型在部署應用中需要將公共訪問接口發布給用戶使用,攻擊者就可以通過公共訪問接口對算法模型進行黑盒訪問,並且在沒有算法模型任何先驗知識(訓練數據、模型參數等)的情況下,構造出與目標模型相似度非常高的模型,實現對算法模型的竊取。

  閆懷志在採訪中表示,AI安全更突出功能安全問題(safety),這通常是指人工智能系統被惡意數據(比如對抗樣本數據)所欺騙,從而導致AI輸出與預期不符乃至產生危害性的結果。“AI功能安全問題與傳統的網絡安全強調的保密性、完整性、可用性等信息安全問題(security),存在本質不同。”

  預防“中毒”困難重重 AI技術也可構築網絡安全利器

  閆懷志表示,目前種種原因導致了預防人工智能“中毒”困難重重,原因具體表現在三個方面。

  一是很多AI研發者和用戶並沒有意識到AI病毒的巨大風險和危害,重視並解決AI病毒問題根本無從談起;二是由於AI正處於高速發展階段,很多AI研發者和生產商“蘿蔔快了不洗泥”,根本無暇顧及安全問題,導致帶有先天安全缺陷的AI系統大量湧入應用市場;三是部分AI研發者和供應商雖然意識到了AI病毒問題,但由於技術能力不足,針對該問題並無有效的解決辦法。

  “當然,網絡安全本來就是一個高度對抗、動態發展的領域,這也給殺毒軟件領域開辟了一個藍海市場,AI殺毒行業面臨著重大的發展機遇。”閆懷志強調,殺毒軟件行業首先應該具有防範AI病毒的意識,然後在軟件技術和算法安全方面重視信息安全和功能安全問題。

  “以現實需求為牽引,以高新技術來推動,有可能將AI病毒查殺這個嚴峻挑戰轉變為殺毒軟件行業發展的重大契機。”閆懷志強調,AI技術既會帶來網絡安全問題,也可以賦能網絡安全。

  一方面,人工智能的廣泛應用帶來了許多安全風險。由技術性缺陷導致的AI算法安全風險,包括可導致AI系統被攻擊者控制的信息安全問題;也可導致AI系統輸出結果被攻擊者任意控制的功能安全問題。 


 【 第1頁 第2頁 第3頁 第4頁 】 


          
】 【打 印】 

 相關新聞: