安全認知,日見清晰;安全研究,路阻且長;安全行業(yè),大有可為;緊跟創(chuàng)新,保障發(fā)展……”在近日舉行的第十二屆互聯(lián)網(wǎng)安全大會上,中國工程院院士吳世忠的一番總結,折射了AI(人工智能)時代安全大模型行業(yè)的發(fā)展現(xiàn)狀。
一直以來,技術發(fā)展伴生的安全挑戰(zhàn)、迭代防護,貫穿著行業(yè)發(fā)展,也備受各界關注。當天,多位兩院院士,中國互聯(lián)網(wǎng)協(xié)會、中國信通院、世界互聯(lián)網(wǎng)大會等機構組織負責人,以及華為、360、微軟等國內外企業(yè)代表齊聚,圍繞“打造安全大模型”主題,分享來自政產學研用領域的各方觀點。
從“百模大戰(zhàn)”到探尋更多應用場景
在過去的兩年里,隨著ChatGPT在全球范圍內爆紅,AI大模型熱潮在國內急速升溫,多家互聯(lián)網(wǎng)巨頭紛紛加速布局大模型應用。記者從會上了解到,截至目前,我國已完成備案并上線、能為公眾提供服務的生成式人工智能服務大模型達180多個,注冊用戶數(shù)已突破5.64億。
“AI以激進式的科技創(chuàng)新,全面推進新一輪科技革命和生活賦能。”吳世忠介紹,以顛覆式的應用創(chuàng)新,全面推進新一輪的大國博弈和社會變革。特別是基礎模型的突破,展示出強大的新質生產力,激發(fā)出科技、經(jīng)濟、社會和國家管理全方位的深刻變化。
中國科學院院士、清華大學計算機系教授張鈸也深有感觸,大模型的出現(xiàn)標志著AI發(fā)展進入新階段,具備了強大的語言生成能力、人機自然交互能力、遷移(舉一反三)能力。“最近一年里,我國在基礎模型研發(fā)、自然語言處理、多模態(tài)生成等領域取得了顯著進展,為千行百業(yè)的智能化轉型提供了堅實支撐”。
“我們已初步構建了較為全面的AI技術產業(yè)體系,建成了2500多個數(shù)字化車間和智能工廠,經(jīng)過AI改造研發(fā)周期平均縮短20%,生產效率提升35%……”中國信息通信研究院副院長魏亮分享了這樣一組數(shù)據(jù)。他分析認為,大模型技術發(fā)展帶來高質量算力基礎設施和數(shù)據(jù)集語料庫的大量需求,我們要加快推進大模型基礎設施化,促進行業(yè)應用和中小企業(yè)普惠使用,不斷創(chuàng)新應用生態(tài)、推動縱深發(fā)展。
從曾經(jīng)的“百模大戰(zhàn)”,到持續(xù)賦能千行百業(yè),再到如今發(fā)力探尋具體應用場景。“2024年應該是場景之年,要結合業(yè)務找‘明星場景’,然后根據(jù)場景設計功能,對大模型進行專項訓練。” 360集團創(chuàng)始人周鴻祎認為,我們不能追求全能,通過一個大模型解決所有問題,應該讓專業(yè)大模型解決專業(yè)問題,找到垂直場景和細分切口,并且由多個專業(yè)模型組合起來,這樣很多問題就可以迎刃而解。
中國工程院院士鄔賀銓也提到“協(xié)作”的重要性。他認為,需要協(xié)作開發(fā)行業(yè)大模型。這些基礎大模型是企業(yè)實現(xiàn)數(shù)字化轉型不可或缺的一環(huán),需要應對包括強大的算力、充足的數(shù)據(jù)、高水平的研材、新應用的算法等諸多挑戰(zhàn),這就需要大模型提供方與垂直行業(yè)緊密合作。
技術向善,也能“向惡”
“ChatGPT問世不到一年,有關人工智能的風險預警,就在科學創(chuàng)新的前沿陣地率先觸發(fā)。它是典型的兩用性技術和雙刃劍特性,人們擔心技術發(fā)展失控、道理倫理失范、網(wǎng)絡安全失守。”吳世忠談到這樣一組觀察體會——近年來,OpenAI、Meta、DeepMind等國外行業(yè)巨頭相繼加大安全技術和監(jiān)管措施的投入,國內的百度、阿里、華為、科大訊飛、360、智譜等,也在安全研究上布局投資。這說明,國內外主流廠商逐漸認識到安全研究的重要性,大模型能力增長需要安全研究快速跟進已成為業(yè)界共識。
“AI浪潮勢不可當。它既是一次工業(yè)革命,又是對安全行業(yè)的一次機會。”周鴻祎認為,在大模型重塑所有行業(yè)、產品時,更多的思考應該是能不能利用AI實現(xiàn)安全技術突破、能不能助力降本增效。以前的“百模大戰(zhàn)”解決了大模型從無到有、從0到1的發(fā)展過程,如今我們不要再“卷”模型了 ,要重點關注應用層面,其中一個重要場景就是“安全”。
在業(yè)界看來,當前AI的發(fā)展在基礎理論和具體應用上存在諸多不足。“生成式AI存在‘幻覺’缺陷,它會‘胡說八道’,很多情況下還并不知道自己說錯了。它和機器產生的錯誤不一樣,后者往往我們可以控制,但前者是本身的錯誤,是一定會發(fā)生且不可控的。這是我們開發(fā)應用中需要重點考慮的問題。”張鈸這樣說。
“AI既有向善的一面,也有向惡的一面。”中國工程院院士、國家數(shù)字交換系統(tǒng)工程技術研究中心主任鄔江興認為,AI應用系統(tǒng)安全責任與風險存在嚴重失衡。AI應用系統(tǒng)網(wǎng)絡內生安全的共性問題,在于計算機帶來了“娘胎的基因缺陷”,如果不能杜絕軟硬件代碼設計中的脆弱性,就無法杜絕網(wǎng)絡問題。
鄔江興還提到,內生安全的個性問題是當前AI推廣應用中的最大障礙,存在著“三大問題”:一是不可解釋性,指通過訓練擬合階段的一些工作原理我們并不明確;二是不可判識性,指訓練AI的大數(shù)據(jù)質量高低,直接影響大模型判斷結果;三是不可推論性,指AI目前對沒有經(jīng)歷過的未知事物無法理解和判斷。