AI在掀起科技浪潮的同時(shí),也帶來(lái)了網(wǎng)絡(luò)安全、數(shù)據(jù)安全的挑戰(zhàn)。
《中國(guó)經(jīng)營(yíng)報(bào)》記者注意到,在2024年世界互聯(lián)網(wǎng)大會(huì)烏鎮(zhèn)峰會(huì)(以下簡(jiǎn)稱“烏鎮(zhèn)峰會(huì)”)上,AI安全挑戰(zhàn)成為各方關(guān)注的焦點(diǎn)之一,比如會(huì)上設(shè)置了網(wǎng)絡(luò)安全技術(shù)發(fā)展與國(guó)際合作論壇、國(guó)內(nèi)首個(gè)AI大模型攻防賽等。
多位業(yè)內(nèi)人士向記者表示,隨著AI技術(shù)不斷深入場(chǎng)景,安全事件也愈演愈烈。大模型訓(xùn)練數(shù)據(jù)泄露、訓(xùn)練遭“投毒”、AI換臉詐騙等問(wèn)題層出不窮。針對(duì)這些現(xiàn)象,不少企業(yè)選擇通過(guò)AI技術(shù)解決AI安全問(wèn)題,通過(guò)安全大模型、AI自動(dòng)化檢測(cè)、深度鑒偽技術(shù)等,提升風(fēng)險(xiǎn)檢測(cè)反應(yīng)能力、確保安全防線的牢固。
安全攻防新形勢(shì)
隨著AI技術(shù)不斷深入場(chǎng)景,安全事件也愈演愈烈。
在烏鎮(zhèn)峰會(huì)的開(kāi)幕式上,中共中央政治局常委、國(guó)務(wù)院副總理丁薛祥發(fā)表主旨講話強(qiáng)調(diào),當(dāng)前互聯(lián)網(wǎng)、大數(shù)據(jù)、云計(jì)算、人工智能、區(qū)塊鏈等技術(shù)不斷取得突破,正在全面賦能經(jīng)濟(jì)社會(huì)發(fā)展,但數(shù)字鴻溝仍在擴(kuò)大,網(wǎng)絡(luò)安全形勢(shì)更加嚴(yán)峻。
那么,AI帶來(lái)的安全挑戰(zhàn)具體有哪些?全國(guó)政協(xié)委員、全國(guó)工商聯(lián)副主席、奇安信集團(tuán)董事長(zhǎng)齊向東向記者表示,AI正在黑客攻擊、社會(huì)操縱和戰(zhàn)略規(guī)劃等關(guān)鍵領(lǐng)域飛速取得進(jìn)展,并帶來(lái)前所未有的挑戰(zhàn),安全已經(jīng)來(lái)到臨界點(diǎn)。
在齊向東看來(lái),AI帶來(lái)的安全危機(jī)可以總結(jié)為“三化”,即黑箱化、黑產(chǎn)化、武器化。具體而言,AI黑箱化將導(dǎo)致內(nèi)容生成良莠不齊?!霸谏葾I大模型的過(guò)程中,數(shù)據(jù)和模型在黑箱內(nèi)部,現(xiàn)實(shí)世界和數(shù)字世界之間有一道天然隔閡,這不僅使得我們難以洞悉具體使用了哪些數(shù)據(jù)集和算法,也模糊了攻擊者可能采取的具體破壞手段,從而導(dǎo)致有害內(nèi)容及錯(cuò)誤信息的泛濫。”
齊向東談道:“在今年的實(shí)網(wǎng)攻防演練中,奇安信攻擊隊(duì)就成功攻破了某AI大模型,并總結(jié)出針對(duì)大模型的攻擊途徑。通過(guò)多種手法,篡改了大模型輸出內(nèi)容、讓模型出現(xiàn)預(yù)料之外或者有害結(jié)果,甚至直接癱瘓了大模型。”
AI黑產(chǎn)化則會(huì)導(dǎo)致深度偽造泛濫成災(zāi)。齊向東表示,不法分子借助AI技術(shù)對(duì)圖像、音視頻等內(nèi)容進(jìn)行深度偽造,以達(dá)到不可告人的目的。無(wú)論是公眾還是企業(yè),都逃不脫深偽詐騙的陷阱。而AI武器化將導(dǎo)致黑客攻擊愈演愈烈。人工智能可以生成惡意軟件、釣魚(yú)郵件,也可以快速發(fā)現(xiàn)目標(biāo)系統(tǒng)中的漏洞,大幅降低網(wǎng)絡(luò)攻擊門檻,讓不懂代碼、不懂技術(shù)的普通人也能成為黑客,攻擊數(shù)量大幅增加。目標(biāo)處于無(wú)法應(yīng)對(duì)的飽和狀態(tài),網(wǎng)絡(luò)空間“易攻難守”成常態(tài)。
烏鎮(zhèn)峰會(huì)期間,由中國(guó)圖象圖形學(xué)學(xué)會(huì)、螞蟻集團(tuán)、云安全聯(lián)盟(CSA)大中華區(qū)聯(lián)合主辦的國(guó)內(nèi)首個(gè)AI大模型攻防賽亦聚焦于深度偽造的安全問(wèn)題。螞蟻集團(tuán)相關(guān)負(fù)責(zé)人告訴記者:“只需10秒,大模型就能克隆聲音、復(fù)刻照片,甚至能生成‘你’的視頻,從而引發(fā)深偽欺詐、色情影像偽造、假新聞等社會(huì)事件;大模型‘越獄’問(wèn)題頻發(fā),誘騙AI聽(tīng)從不懷好意的指令,生成血腥、暴力、歧視、仇恨的圖片、視頻,危害網(wǎng)絡(luò)空間安全?!?/p>
安恒信息相關(guān)負(fù)責(zé)人也告訴記者:“隨著AI技術(shù)不斷深入場(chǎng)景,安全事件也愈演愈烈。大模型訓(xùn)練數(shù)據(jù)泄露、訓(xùn)練遭‘投毒’、AI換臉詐騙等問(wèn)題層出不窮。從訓(xùn)練到應(yīng)用,大模型的安全風(fēng)險(xiǎn)無(wú)處不在。比如數(shù)據(jù)隱私和安全問(wèn)題,AI系統(tǒng)通常需要大量的數(shù)據(jù)來(lái)訓(xùn)練模型,這可能涉及敏感的個(gè)人信息。如果這些數(shù)據(jù)被不當(dāng)使用或泄露,將對(duì)個(gè)人隱私造成威脅。還有內(nèi)容安全問(wèn)題,如何確保AI不生成錯(cuò)誤內(nèi)容、違規(guī)內(nèi)容和惡意代碼?如何確保大模型生成的代碼或內(nèi)容不被用于執(zhí)行安全攻擊?這都是AI帶來(lái)的新的安全挑戰(zhàn)?!?/p>
以AI治理AI
“以AI治理AI”模式已經(jīng)成為解決安全風(fēng)險(xiǎn)的一大趨勢(shì)。
中國(guó)工程院院士、中國(guó)圖象圖形學(xué)學(xué)會(huì)理事長(zhǎng)王耀南指出:“加強(qiáng)大模型安全保護(hù),構(gòu)建完善的安全防護(hù)體系,是確保人工智能技術(shù)持續(xù)、穩(wěn)定、健康發(fā)展的關(guān)鍵所在,也是我們?cè)谶@個(gè)充滿機(jī)遇與挑戰(zhàn)的時(shí)代必須肩負(fù)起的重要使命?!?/p>
記者在烏鎮(zhèn)峰會(huì)會(huì)場(chǎng)了解到,針對(duì)AI技術(shù)帶來(lái)的深度偽造風(fēng)險(xiǎn),螞蟻集團(tuán)正通過(guò)蟻天鑒和ZOLOZ等安全技術(shù)產(chǎn)品加強(qiáng)對(duì)圖像、視頻的鑒真能力。據(jù)介紹,蟻天鑒不僅支持圖像、視頻等多模態(tài)內(nèi)容真實(shí)性及深度偽造的監(jiān)測(cè),還支持大模型X光、大模型基礎(chǔ)設(shè)施測(cè)評(píng)、應(yīng)用安全測(cè)評(píng)、圍欄防御等技術(shù)能力。記者現(xiàn)場(chǎng)從圖庫(kù)中選擇了數(shù)張照片,僅用幾秒,蟻天鑒就可以準(zhǔn)確識(shí)別圖片或視頻片段的真?zhèn)巍?/p>
而ZOLOZ則更專注于攻克AI換臉難題,其人臉識(shí)別準(zhǔn)確率達(dá)99.9%。在現(xiàn)場(chǎng),觀眾可以上傳一張個(gè)人照片,由AI基于照片合成新的人臉圖像來(lái)試圖突破ZOLOZ防御系統(tǒng)。工作人員告訴記者,目前ZOLOZ已為中國(guó)、印度尼西亞、馬來(lái)西亞、菲律賓等24個(gè)國(guó)家和地區(qū)提供技術(shù)服務(wù),涵蓋金融、保險(xiǎn)、證券、信貸、電信、公共服務(wù)等多個(gè)領(lǐng)域,累計(jì)服務(wù)用戶超12億。
齊向東告訴記者,未來(lái)強(qiáng)化人工智能安全治理,需要重點(diǎn)采用三大技術(shù)策略。第一個(gè)策略是結(jié)合大模型基礎(chǔ)運(yùn)行環(huán)境、訓(xùn)練環(huán)境、API接口以及數(shù)據(jù)安全進(jìn)行多維度、體系化防護(hù)。大模型生命周期的每個(gè)環(huán)節(jié)都存在大量不確定性,無(wú)論是數(shù)據(jù)安全、算法開(kāi)發(fā)和模型安全、內(nèi)容還是應(yīng)用安全等方面,都要做到合規(guī)。
第二個(gè)策略是用“鑒偽”“防偽”技術(shù)有效遏制深度偽造。針對(duì)正在野蠻生長(zhǎng)的生成式偽造語(yǔ)音技術(shù)、生成式偽造視頻技術(shù),應(yīng)該盡快發(fā)展相關(guān)檢測(cè)技術(shù)。比如,奇安信自研的深度鑒偽模型能夠準(zhǔn)確識(shí)別多種前沿AI偽造技術(shù)生成的虛假圖片視頻;洛基平臺(tái)可以通過(guò)內(nèi)網(wǎng)在線訪問(wèn),上傳圖片、視頻開(kāi)展深度鑒偽。
第三個(gè)策略是用安全大模型反哺安全能力大提升。建立體系化的安全防護(hù)系統(tǒng),是AI安全大模型驅(qū)動(dòng)安全的重要前提。奇安信的內(nèi)生安全體系,把網(wǎng)絡(luò)安全設(shè)備和業(yè)務(wù)流轉(zhuǎn)、不同層次的信息系統(tǒng)有機(jī)結(jié)合起來(lái),做到安全能力的無(wú)死角,確保多道網(wǎng)絡(luò)安全防線有效協(xié)同,實(shí)現(xiàn)從宏觀管控到微觀檢測(cè)的全面防護(hù)。記者了解到,奇安信在內(nèi)生安全體系之上,部署了自研的QAX-GPT安全大模型,這樣不僅讓大模型更懂客戶業(yè)務(wù),同時(shí)也讓安全體系效率更高、能力更強(qiáng)。經(jīng)過(guò)反復(fù)訓(xùn)練打磨,AI安全大模型的研判效率已經(jīng)提到了人工的60多倍。
事實(shí)上,類似的“以AI治理AI”模式已經(jīng)成為解決安全風(fēng)險(xiǎn)的一大趨勢(shì)。安恒信息相關(guān)負(fù)責(zé)人告訴記者,公司正從對(duì)抗性訓(xùn)練、自動(dòng)化檢測(cè)、大模型風(fēng)險(xiǎn)檢測(cè)、聯(lián)邦學(xué)習(xí)和隱私保護(hù)、AI輔助威脅情報(bào)等5大方向進(jìn)行探索。其中,對(duì)抗性訓(xùn)練通過(guò)在模型訓(xùn)練過(guò)程中引入對(duì)抗性樣本,目前“恒腦”利用該技術(shù)來(lái)微調(diào)訓(xùn)練模型,使“恒腦”能夠更好地抵御對(duì)抗性攻擊。這種方法提高了AI系統(tǒng)對(duì)惡意輸入的魯棒性。
大模型風(fēng)險(xiǎn)檢測(cè)方面,安恒則通過(guò)恒腦智鑒針對(duì)大模型風(fēng)險(xiǎn)評(píng)估采用精細(xì)化風(fēng)險(xiǎn)評(píng)估方法,覆蓋12大內(nèi)容安全風(fēng)險(xiǎn)領(lǐng)域,細(xì)分為40余種小類,確保無(wú)遺漏。同時(shí),配備20余種檢測(cè)手段和超過(guò)25000個(gè)測(cè)試用例,提供詳盡的數(shù)據(jù)分析和安全報(bào)告,能夠幫助政企監(jiān)管機(jī)構(gòu)快速、精準(zhǔn)地發(fā)現(xiàn)潛在問(wèn)題并采取相應(yīng)措施?!斑@些探索和實(shí)踐表明,‘以AI治理AI’不僅是技術(shù)上的需要,也是在確保AI系統(tǒng)安全性和可靠性方面的重要戰(zhàn)略。隨著AI技術(shù)的不斷發(fā)展,這一領(lǐng)域?qū)⒗^續(xù)演進(jìn)和擴(kuò)展。”該負(fù)責(zé)人表示。
未來(lái),AI攻防還有哪些深化的方向?安恒信息相關(guān)負(fù)責(zé)人告訴記者,過(guò)往業(yè)內(nèi)比較關(guān)注數(shù)據(jù)投毒,但安恒信息研究發(fā)現(xiàn),相比數(shù)據(jù)投毒,大模型權(quán)重文件投毒后門的適用性更廣,危害性更大。通過(guò)模型權(quán)重文件投毒方式,模型可被控制會(huì)遵從惡意控制者行動(dòng),平時(shí)是一個(gè)常規(guī)大模型,當(dāng)惡意控制者在任意時(shí)候發(fā)送指令,即可馬上讓它變成惡意大模型,如何在任何時(shí)候讓模型可控、不越界是安恒接下來(lái)要研究和探索的方向。