一個“AII in AGENT”的網絡安全行業,應該是什么樣子?
目前,AI智能體還需要人來定義,而在不遠的將來,L5級別的智能體,借蜂群框架和社區開放,正在打造“AI時代的操作系統”,重構人機協作范式。

還記得2023年8月,那是生成式AI爆發后的第一屆ISC大會。
彼時,所有人對于生成式AI的看法,充滿諸多不確定性,會后采訪周鴻祎時,AI相關的話題,也成為記者們繞不開的熱門方向。
那一年,也是“紅衣大叔”周鴻祎在公眾視野里“重出江湖”的一年。他先是堅定宣布“擁抱AI”,并提出“人工智能不是泡沫,是下一場工業革命。”并在極短時間內推出自研通用大模型“360智腦”,使得360成功搶占了國內AI產業的先機。
兩年過去,當行業還在“去幻覺”,卷對話體驗時,周鴻祎已然看到AI AGENT的巨大潛力。當潮流逐漸向AGENT匯聚時,他已經拿著蜂群化的納米智能體,站在AGENT潮流的前端。
某種意義上,這也暗合本屆ISC·AI大會的主題:AII in AGENT——從被動防御,到主動免疫,用更智能化的AI AGENT,重構從網絡安全,到整個互聯網的一切。
01 會協作的智能體“蜂群”
過去兩年,生成式AI從短文本問答到長文本生成,再到推理大模型,其對自然語言的理解和生成效果的迭代進化,自是有目共睹。但在真實的企業應用場景里,仍然暴露了諸多短板。
一如周鴻祎在ISC大會上所言,目前大模型的推理能力仍然有所欠缺,在大量場景里更像知識問答模型,二是大量模型不具備獨立調用工具,解決問題的能力。

模型推理能力的問題,在年初Deepseek出現之后,已經得到了部分解決。但在大多數復雜場景時,一個只有推理能力的大模型,通常只相當于人的大腦。
原因很簡單,在企業實務中,無論是互聯網還是實體經濟,一項工作通常需要調用大量工具進行協作完成。如今的推理大模型雖然性能“夠用”,但是尚不具備成為生產力工具的條件。
正因如此,以納米AI為代表的智能體,或許是生成式AI從玩具到工具的一條演進路線,或者用周鴻祎的話說,“大模型進化到智能體是必然的。”其原因在于,以目前的智能體性能,它能夠理解目標、規劃任務、調用工具、具備記憶,實現從需求到結果的完整交付。同時,它也可以使用包括大模型在內的各種工具,進行各種復雜任務的規劃和完成。
在會上,周鴻祎用L1到L4的不同階段,總結了智能體在不同階段的演進和特點。
——L1聊天助手,本質上是聊天工具,擅長提建議或提供情感陪伴,屬于“玩具級”智能體,比如GPTs。
——L2低代碼工作流智能體,已經從“玩具”進化為“工具”,但必須由人類來設置流程,AI來執行任務,人再通過操作工具提高生產效率。
——L3推理型智能體,已能實現AI自主規劃完成任務,像是人類制造了一個在某個領域有專業特長的員工。
他們單兵作戰的能力很強,可以看作一位領域專家。但受限于技術框架,面對跨領域復雜問題時,仍會因缺乏協同規劃能力而陷入瓶頸,無法實現多層級思考下的全局優化。
——L4階段,以納米AI為代表,已經實現了“多智能體蜂群協作”——多個專家智能體可像搭積木一樣靈活“拉群組隊”、多層嵌套、分工協作。
在性能表現上,納米AI可以連續執行1000步的復雜任務,消耗Token在 500 萬 - 3000 萬,任務成功率高達95.4%。

要實現多智能體協作,其產品形態必然是平臺化的,必然是少數L4級別智能體協調大量專家級L3智能體完成工作。
借助納米AI首創的“多智能體蜂群協作空間”,智能體之間的記憶可以共享,借此規避了智能體之間的“協同困境”。從任務規劃、協同執行,再到后續自我迭代,都可以在平臺上統一完成。
截至目前,平臺已經匯聚超過5萬個L3智能體,普通用戶只需通過自然語言即可搭建自己的“Manus”。蜂群框架下,這些L3智能體可以組成步調一致,目標一致的L4團隊,也能完成“一句話生成10分鐘電影級大片”的超長復雜任務,效率從過去2小時直接縮短到20分鐘。
02 更主動,更安全
需要注意的是,隨著互聯網步入AI時代,而在大多數普通人不涉及的網絡安全攻防領域,AI技術同樣也在深入肌理。這里對攻防雙方,都是顯而易見的挑戰:
一方面,專業的網絡安全專家,在行業內仍然是極度短缺的香餑餑,其專業能力根據公司數據類型的不同,培養周期很長,且應對方向各異,成長難度較大。即便加入大模型進行輔助工作,雖然已經能處理部分基礎任務,卻難以應對復雜流程化的日常運營工作,導致防護能力落地受阻。
但作為攻擊方的黑客,卻能通過AI訓練“智能體黑客”,在真人黑客不在的時候進行自動化攻擊。根據每個黑客組織算力儲備的不同,可以批量復制,一個人類黑客,完全可以管理數十個智能體黑客,其能力呈指數級上漲。
與此同時,作為安全運營專家的“數字大腦”,安全智能體以安全大模型為核心,具備工具調用,流程執行等時機能力,以完整復刻高級專家的分析、決策與實操能力。
部署一個安全智能體,并不意味著“萬事大吉”。譬如在工業控制、政務決策等場景,智能體的幻覺可能導致設備誤操作或政策偏差。例如醫療智能體誤診率即使僅0.1%,在千萬級調用量下仍會造成重大事故。
其中一種規避方式,是動態RAG增強,它將行業知識庫(如國家標準GB/T、工業設備參數)嵌入智能體推理流程,強制在生成答案前檢索權威數據源。譬如政務處理智能體,在回復政策咨詢時,可以做到自動關聯國務院最新文件庫,減少自由發揮空間;同時,借助360大模型衛士的“數據去毒”模塊,過濾訓練數據中的矛盾信息,并注入領域規則。
另一種方法則是CoVE驗證鏈。在智能體生成回答之后,通過分步自檢機制,它能自動拆解關鍵主張,并生成驗證問題,進而調用相關的數據庫工具交叉驗證。再通過物理反饋機制,譬如智能體將控制指令轉化為設備的API調用,讀取對應傳感器數據并確認執行結果,形成決策閉環。
不止360一家,任何一家有網絡安全需求的企業,都可以打造自己的安全智能體。相對于一般的AI公司,360的底氣在于,擁有一般AI公司沒有的網絡安全數據、知識,以及網絡安全工具,以及充分發揮上述能力的工作流、大模型,再到如今的智能體打造平臺,每一步都是拼圖,每一塊業務都可以是壁壘。

此外,除了已經定制好的幾十個安全智能體,用戶同樣可以根據需求自己定制對應領域的安全智能體,在如今智能體“定制化”的風潮之下,部署一個熟悉企業情況,能針對性防護的安全智能體,并不是一件難事。
03 奔向“智能體蜂群”的未來
一如周鴻祎所言,2025年,是智能體的“安全”元年,也是安全智能體的誕生之年。安全智能體,在大模型“腦子”的基礎上,增加了手和腳,意味著能夠進行主動攻防,主動使用工具,如果放在企業實務中,無異于增加了新質的生產力和戰斗力。
從一開始,360智能體就避開了“算力內卷”,結合自身安全領域的底蘊,專注更場景化,更垂直的生產力。
在構建“智鑒、智盾、智控”五位一體安全體系閉環后,以納米AI搜索為落地產品,成為用戶連接AI的第一入口。

今年以來,360的L4級“專家”智能體,已然覆蓋多個垂直領域,協同任務錯誤率已經下降近90%。這意味著,人類“CEO”和賽博團隊的AI AGENT,用戶像“BOSS直聘”一樣調配5萬+智能體,跨公司組隊形成專屬協作小隊,已經不再是夢。
目前,AI智能體還需要人來定義,而在不遠的將來,L5級別的智能體,借蜂群框架和社區開放,正在打造“AI時代的操作系統”,重構人機協作范式。
如果智能體真正進入普通人的生活,那么人類的工作內容,則會變成定義智能體、規劃智能體、管理智能體、監督智能體,智能體變成了人類的員工,做繁瑣的工作,人要學會跟智能體協作。
這樣,每個人就會變成超級個體,大量使用智能體的公司也會變成超級組織,甚至重塑整個經濟的形態和運營邏輯。
這種“業務人員主導AI創新”的模式,無疑進一步加速了AI技術的應用落地,使智能體真正成為“數字員工”
一如周鴻祎預言:“智能體時代,不會指揮AI的人將被淘汰。”這一戰略,正推動360從網絡安全供應商,向AI生態主導者逐步躍遷。
原文標題 : 一個“AII in AGENT”的網絡安全行業,應該是什么樣子?
請輸入評論內容...
請輸入評論/評論長度6~500個字
最新活動更多
-
11月7日立即參評>> 【評選】維科杯·OFweek 2025(第十屆)物聯網行業年度評選
-
11月20日立即報名>> 【免費下載】RISC-V芯片發展現狀與測試挑戰-白皮書
-
即日-11.25立即下載>>> 費斯托白皮書《柔性:汽車生產未來的關鍵》
-
11月27日立即報名>> 【工程師系列】汽車電子技術在線大會
-
11月28日立即下載>> 【白皮書】精準洞察 無線掌控——283FC智能自檢萬用表
-
12月18日立即報名>> 【線下會議】OFweek 2025(第十屆)物聯網產業大會


分享













