在AI人工智能新時代,歸屬于防毒軟件的“輝煌年代“是否己經結束了?AI人工智能做為推動新一波科技革命和產業變革的革命性技術,己經滲入了社會日常生活的方方面面。可在新技術為人們日常生活帶來諸多便利的同時,其帶來的的安全隱患也備受關注,比如數據信息泄露、算法偏見、算法系統漏洞等問題,給經濟發展和社會安全帶來了多種挑戰。
“安全是發展的前提條件,保證 AI人工智能安全、可靠、可控,才算是守衛AI人工智能穩健發展的根本。”瑞萊智慧CEO田天說。
4月8日,這一來自清華大學AI人工智能研究所的創業團隊發布了國內第一個針對算法模型本身安全的檢測系統——RealSafeAI人工智能安全平臺。做為AI人工智能新時代的“防毒軟件”,該平臺可提供從測評到防御完整的解決方法,迅速減輕對抗樣本攻擊威脅。AI人工智能問世60多年來,技術獲得了長足的進步,但仍存有著模型缺點、算法不可解釋性、數據信息強依賴感等“軟肋”。伴隨著數據量、算力的大幅度提高,未來AI人工智能技術的應用場景會日漸提升,而且將從語音識別技術、面部識別等領域逐漸拓寬向金融管理決策、工業生產經營、醫療診斷、自動駕駛等更高市場價值的應用領域,這將對AI人工智能技術的安全性、可靠性提出更高要求,提高算法安全性成為新一波AI人工智能智能產業升級下的新方位。
2018年,中國通信網絡研究所安全研究編制的《AI人工智能安全白皮書》中提到,“算法安全”是AI人工智能六大安全隱患之一,并著重指出了“對抗樣本攻擊引誘算法鑒別出現誤判漏判“這種算法模型缺點為算法安全的關鍵風險項。田天講解,對抗樣本是機器學習模型的1個有意思狀況,但根據在源數據信息上提升人類沒法根據感官識別到的微小改變,能夠讓機器學習模型接受并作出錯誤的歸類決定。比如,在一張“阿爾卑斯山”的照片上添加一些人眼沒法覺察的噪聲,一切正常狀況下人眼依然能分辨這張圖顯示信息的是高山,可是圖像分類模型卻會將它錯誤鑒別為狗。
歷經持續的升級演變,對抗樣本攻擊己經不僅滯留在數據世界,針對物理世界的攻擊也開始出現。如在地面上粘貼對抗樣本貼紙效仿合拼雜帶,誤導特斯拉自動駕駛汽車拐進逆行車道;佩戴對抗樣本生成的眼鏡,輕易破解手機面部解鎖;胸前張貼對抗樣本貼紙即可實現“隱身”等。“在網絡安全新時代,網絡攻擊的大規模滲透倒逼了防毒軟件的問世。”田天說,“針對算法系統漏洞這種‘新型病毒’,人們同樣需要開展安全評估評測能力建設,打造AI人工智能新時代的‘防毒軟件’,以技術手段為支撐,切實規避AI人工智能算法缺點可能帶來的安全隱患。
借助于清華大學人工智能研究院及本身數年來的技術累積,瑞萊智慧研發的人工智能安全平臺,內嵌了優秀的攻防優化算法模型,為政府部門、公司等提供安全性測評與安全防范,高效用對優化算法威脅。相比于普遍的開源工具需要自主部署、撰寫代碼,這一“殺毒”平臺只需要使用者提供相應的數據,就可以線上進行評定,降低了優化算法測評的技術難度。該平臺支持五種去除對抗噪聲的通用防御方法,可對輸入數據進行自動去噪處理,破壞攻擊者惡意添加的對抗噪聲。經測試,一部分第三方人臉對比應用程序接口在使用平臺的防御方案加固后,安全性可提升 40%以上。
“發布安全性檢測平臺是規避人工智能風險的1條路徑,未來我們還需要聯合各界力量,共同推動人工智能安全性相關的國家標準、行業標準、聯盟標準的制定,為人工智能產品安全評估測評的統一參考。”田天最后說。