在WAIC 2024上,參觀者在某大模型演示屏前體驗交流。新華社記者 方喆攝
比盛夏的上海更火熱的是2024世界人工智能大會暨人工智能全球治理高級別會議(以下簡稱“WAIC 2024”)。大會線下參觀人數(shù)突破30萬人次,創(chuàng)歷史新高。
值得注意的是,WAIC 2024的首發(fā)首秀不僅涉及模型更新?lián)Q代,還涵蓋應(yīng)用、平臺、系統(tǒng)等。行業(yè)和觀眾的目光更多投向與模型落地緊密相關(guān)的交互體驗、商業(yè)模式等領(lǐng)域。
一個引發(fā)廣泛關(guān)注的問題是,隨著大模型能力不斷增強,其安全性、可靠性、可控性也日益受到挑戰(zhàn)。尤其是面對行業(yè)用戶合法合規(guī)、精準可控等要求,大模型可能存在的數(shù)據(jù)安全、幻覺等成為繞不過的問題。
中國信息通信研究院華東分院人工智能事業(yè)部主任常永波說,應(yīng)用價值與應(yīng)用安全是大模型發(fā)展的兩翼,當前大模型已進入快速迭代期,在積極探索落地應(yīng)用的同時,大模型廠商也要高度重視應(yīng)用場景需求下對安全的行業(yè)要求。
技術(shù)自身缺陷不容忽視
依托龐大參數(shù)規(guī)模、海量訓(xùn)練數(shù)據(jù)、強大算力資源,大模型作為人工智能領(lǐng)域最熱門的技術(shù)分支,已在多個領(lǐng)域表現(xiàn)出超越人類的能力。
“金融、醫(yī)療、教育、政務(wù)、制造等眾多領(lǐng)域都在積極探索大模型安全應(yīng)用范式,以應(yīng)對大模型安全風險?!背S啦ń榻B,伴隨大模型的深度應(yīng)用,產(chǎn)學研用各方都在加強大模型安全威脅和防御技術(shù)體系研究。在原有可信人工智能治理體系框架基礎(chǔ)上,提升大模型的魯棒性、可解釋性、公平性、真實性等能力成為行業(yè)研究熱點。安全評測技術(shù)和安全防御技術(shù)的不斷成熟,有效護航大模型發(fā)展。
WAIC 2024上,清華大學、中關(guān)村實驗室、螞蟻集團等機構(gòu)聯(lián)合撰寫的《大模型安全實踐(2024)》白皮書(以下簡稱“白皮書”)正式發(fā)布。白皮書顯示,大模型技術(shù)存在自身缺陷,包括生成內(nèi)容不可信、能力不可控以及外部安全隱患等問題。
“幻覺是大模型目前比較難解決的問題?!背S啦ㄕf,模型在遵循語法規(guī)則的同時,可能產(chǎn)生虛假或無意義的信息。這一現(xiàn)象源于大模型基于概率推理的輸出方式。它可能導(dǎo)致對模糊預(yù)測的過度自信,從而編造錯誤或不存在的事實,影響生成內(nèi)容的可信度?!爸悄苡楷F(xiàn)”是大模型的另一種效應(yīng),它可以讓模型展現(xiàn)出色性能,也具有突發(fā)性、不可預(yù)測性和不可控性等特征。
另外,大模型的脆弱性和易受攻擊性使外部安全隱患難以消除。相關(guān)數(shù)據(jù)顯示,隨著大模型技術(shù)快速發(fā)展,相關(guān)網(wǎng)絡(luò)攻擊也在增多。
聚焦安全可靠可控性建設(shè)
大模型帶來的種種風險,對監(jiān)管方、學術(shù)界、產(chǎn)業(yè)界是全新且不可回避的問題。
近年來,《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》《生成式人工智能服務(wù)管理暫行辦法》《科技倫理審查辦法(試行)》等政策法規(guī)相繼發(fā)布,搭建起我國人工智能治理的基本框架。一系列政策法規(guī)堅持發(fā)展與安全并重原則,強化科技倫理風險防控,從技術(shù)發(fā)展與治理、服務(wù)規(guī)范、監(jiān)督檢查與法律責任等層面對大模型安全發(fā)展提出要求。
白皮書提出,構(gòu)建大模型安全政府監(jiān)管、生態(tài)培育、企業(yè)自律、人才培養(yǎng)、測試驗證“五維一體”的治理框架。
在監(jiān)管方面,常永波介紹,敏捷治理正成為一種新型治理模式。該模式以柔韌、流動、靈活及自適應(yīng)為特點,倡導(dǎo)多元利益相關(guān)者共同參與,能快速響應(yīng)環(huán)境變化。在實施治理策略時,結(jié)合柔性倫理規(guī)范和硬性法律法規(guī),構(gòu)建完善的治理機制,在規(guī)制大模型風險的同時平衡創(chuàng)新與安全。
“為確保大模型在實際應(yīng)用中發(fā)揮最大效能,防止?jié)撛陲L險和濫用,大模型建設(shè)通常會聚焦三個重要維度:安全性、可靠性和可控性?!蔽浵伡瘓F安全實驗室首席科學家王維強解釋,安全性意味著確保模型在所有階段都受到保護,防止任何未經(jīng)授權(quán)的訪問、修改或感染,保障人工智能系統(tǒng)無漏洞、免誘導(dǎo);可靠性要求大模型在各種情境下都能持續(xù)提供準確、一致、真實的結(jié)果,這對于決策支持系統(tǒng)尤為重要;可控性關(guān)乎模型在提供結(jié)果和決策時能否讓人類了解和介入,以便人類根據(jù)需要進行調(diào)適和操作。
王維強特別提到時下備受關(guān)注的Agent(智能體)。他說,Agent是目前大模型落地的關(guān)鍵路徑,但復(fù)雜的Agent體系進一步擴大了大模型風險敞口。目前RAG(檢索增強生成)、指令遵循、知識圖譜嵌入等方法可有針對性地提升模型輸出的可控性和準確性。
合力推動人工智能健康發(fā)展
“目前來看,讓大模型完全不犯錯幾乎不可能,但減小犯錯幾率,減弱錯誤危害性,是可以做到的?!背S啦ㄕf,安全治理需產(chǎn)學研共同發(fā)力,中國信息通信研究院已開展一系列標準和測評研究,頭部廠商也在加速構(gòu)建自身的安全和治理體系。
螞蟻集團安全內(nèi)容智能負責人趙智源介紹了相關(guān)經(jīng)驗。一方面,在大模型產(chǎn)品投入應(yīng)用前,企業(yè)需做好全面評測,對暴露出的安全問題展開針對性防御,把好入口關(guān);相關(guān)產(chǎn)品進入市場后,也要時刻監(jiān)控可能出現(xiàn)的風險隱患,進行技術(shù)補救和改進。另一方面,模型技術(shù)通常跑在安全技術(shù)前,行業(yè)研究要保持一定前瞻性。
“我們很早就開始探索基于安全知識構(gòu)建視覺領(lǐng)域生成內(nèi)容風險抑制的技術(shù)。在多模態(tài)大模型發(fā)布后,我們又將這一技術(shù)集成到多模態(tài)基座中,降低風險內(nèi)容生成比例?!壁w智源介紹,螞蟻集團已構(gòu)建起面向產(chǎn)業(yè)級應(yīng)用的大模型安全一體化解決方案“蟻天鑒”2.0版本,形成包括大模型基礎(chǔ)設(shè)施測評、大模型X光測評等在內(nèi)的測評和防御技術(shù)鏈條,并已運用于金融、政務(wù)、醫(yī)療等專業(yè)場景下的AI應(yīng)用全流程。
常永波說,大模型落地門檻正在大幅降低,大量中小企業(yè)在模型安全治理方面的能力較弱,有些甚至不符合基本的合規(guī)要求。解決這些問題,需要監(jiān)管的進一步引導(dǎo)和頭部廠商的能力釋放。
“我們現(xiàn)在已把‘蟻天鑒’的測評能力框架開源,將來也會把檢測能力以及對風險的認知更多分享到平臺上,它可以適配較多模型。希望我們提供的開放能力能幫助大模型行業(yè)持續(xù)健康發(fā)展?!蓖蹙S強說,模型廠商離用戶最近,可第一時間發(fā)現(xiàn)安全隱患,并通過和監(jiān)管保持良性溝通互動,助力大模型安全落地。
清華大學長聘副教授李琦認為,大模型安全應(yīng)用是一個新興領(lǐng)域,研究和應(yīng)用尚處于起步階段。隨著新的實踐不斷深入發(fā)展,相關(guān)技術(shù)也會持續(xù)升級,為建構(gòu)大模型安全實踐范式打造高價值參考體系。
人工智能治理是全球性問題。WAIC 2024開幕式上發(fā)布的《人工智能全球治理上海宣言》提出,高度重視人工智能的安全問題。宣言強調(diào),以發(fā)展的眼光看問題,在人類決策與監(jiān)管下,以人工智能技術(shù)防范人工智能風險,提高人工智能治理的技術(shù)能力。宣言呼吁,推動制定和采納具有廣泛國際共識的人工智能的倫理指南與規(guī)范,引導(dǎo)人工智能技術(shù)的健康發(fā)展,防止其被誤用、濫用或惡用。(崔 爽)
(責任編輯:蔡文斌)