夜间福利片1000无码_日韩另类色区欧美日韩_亚洲日本一区二区三区在线_一本大道一卡二卡

人工智能開創(chuàng)網(wǎng)絡安全新紀元:2024 年預測

近幾年來,人工智能 (AI) 一直是網(wǎng)絡安全領域的賭注,但大型語言模型 (LLM) 的廣泛采用使 2023 年成為尤其令人興奮的一年。事實上,大型語言模型已經(jīng)開始轉變網(wǎng)絡安全的整個格局。然而,它也產(chǎn)生了前所未有的挑戰(zhàn)。

一方面,大型語言模型使處理大量信息變得容易,讓每個人都可以利用人工智能。大型語言模型可以為管理漏洞、防止攻擊、處理警報和響應事故提供驚人的效率、智能和可擴展性。

另一方面,攻擊者也可以利用大型語言模型來提高攻擊效率,利用大型語言模型引入的額外漏洞,而濫用大型語言模型可能會造成更多網(wǎng)絡安全問題,例如由于人工智能的普遍使用而導致的無意數(shù)據(jù)泄露。

大型語言模型的部署需要一種新的網(wǎng)絡安全思維方式。這種思維更具活力、互動性和個性化。在硬件產(chǎn)品的時代,硬件只有在被下一個新版本的硬件取代時才會發(fā)生變化。在云時代,可以更新軟件并收集和分析客戶數(shù)據(jù)來改進下一版本的軟件,但前提是發(fā)布了新版本或補丁。

現(xiàn)在,在人工智能的新紀元,客戶使用的模型有了自己的智能,可以不斷學習,根據(jù)客戶的使用情況改變 — 要么更好地服務于客戶,要么向錯誤的方向傾斜。因此,我們不僅需要在設計中建立安全性 — 確保我們構建安全的模型并防止訓練數(shù)據(jù)中毒 — 而且還要在部署后繼續(xù)評估和監(jiān)控 LLM 系統(tǒng)的安全性、保障性和道德性。

最重要的是,我們需要在我們的安全系統(tǒng)中內置智能(例如向兒童灌輸正確的道德標準,而不僅僅是規(guī)范兒童的行為),這樣他們才能適應性地做出正確而堅定的判斷,而不會輕易被不良意見所迷惑。

大型語言模型為網(wǎng)絡安全帶來了什么,是好還是壞?我將分享我們在過去一年中的收獲以及我對 2024 年的預測。

 

回顧 2023 年

一年前(大型語言模型時代之前),我在撰寫機器學習在網(wǎng)絡安全中的未來時,指出了人工智能在網(wǎng)絡安全領域面臨的三個獨特挑戰(zhàn):準確性、數(shù)據(jù)短缺和缺乏基本事實,以及三個雖然常見但在網(wǎng)絡安全領域更為嚴峻的人工智能挑戰(zhàn):可解釋性、人才稀缺和人工智能安全。

一年后的現(xiàn)在,經(jīng)過大量探索,我們發(fā)現(xiàn)大型語言模型在這六個領域中的四個領域幫了大忙:數(shù)據(jù)短缺、缺乏基本事實、可解釋性和人才稀缺。另外兩個領域 — 準確性和人工智能安全,是極其關鍵的,但仍然非常具有挑戰(zhàn)性。

我從兩個方面總結了在網(wǎng)絡安全領域使用大型語言模型的最大優(yōu)勢:

1.數(shù)據(jù)

標注數(shù)據(jù)

使用大型語言模型幫助我們克服了沒有足夠“標注數(shù)據(jù)”的挑戰(zhàn)。

要使人工智能模型和預測更準確、更適合網(wǎng)絡安全用例,就必須要有高質量的標注數(shù)據(jù)。然而,這些數(shù)據(jù)很難獲得。例如,很難發(fā)現(xiàn)能讓我們了解攻擊數(shù)據(jù)的惡意軟件樣本。遭到入侵的企業(yè)并不熱衷于分享這些信息。

大型語言模型有助于收集初始數(shù)據(jù)并根據(jù)現(xiàn)有的真實數(shù)據(jù)合成數(shù)據(jù),對其進行展開以生成有關攻擊來源、載體、方法和意圖的新數(shù)據(jù),然后使用這些信息來構建新的檢測,而不局限于實地數(shù)據(jù)。

基本事實

正如我一年前的文章中提到的,我們并不總是掌握網(wǎng)絡安全的基本事實。我們可以使用大型語言模型,通過發(fā)現(xiàn)我們的檢測與多個惡意軟件數(shù)據(jù)庫之間的差距、降低誤報率和頻繁地重新訓練模型來顯著改善基本事實。

2.工具

大型語言模型特別擅長使網(wǎng)絡安全運營變得更容易、更用戶友好、更具可操作性。到目前為止,大型語言模型對網(wǎng)絡安全的最大影響體現(xiàn)在安全運營中心 (SOC)。

例如,利用大型語言模型實現(xiàn) SOC 自動化背后的關鍵能力是函數(shù)調用,這樣有助于將自然語言指令轉化為可直接操縱 SOC 的 API 調用。大型語言模型還可以協(xié)助安全分析師更智能、更快速地處理警報和事故響應。大型語言模型使我們能夠通過直接從用戶那里獲取自然語言命令來集成五花八門的網(wǎng)絡安全工具。

可解釋性

以前的機器學習模型表現(xiàn)很好,但無法回答“為什么?”的問題。大型語言模型有望通過準確而自信地解釋原因來改變游戲規(guī)則,這將從根本上變革威脅檢測和風險評估。

大型語言模型快速分析大量信息的能力有助于關聯(lián)來自不同工具的數(shù)據(jù):事件、日志、惡意軟件系列名稱、來自常見漏洞和暴露 (CVE) 的信息,以及內部和外部數(shù)據(jù)庫。這不僅有助于找到警報或事故的根本原因,還可以極大地縮短事故管理的平均解決時間 (MTTR)。

人才稀缺

網(wǎng)絡安全行業(yè)的失業(yè)率為負。我們沒有足夠的專家,人類也無法追趕海量的警報。鑒于大型語言模型的優(yōu)勢:快速匯集和消化大量信息、理解自然語言命令、將命令分解成必要步驟以及找到執(zhí)行任務的正確工具,大型語言模型極大地減輕了安全分析師的工作量。

從獲取領域知識和數(shù)據(jù)到剖析新的樣本和惡意軟件,大型語言模型可以幫助我們更快、更有效地促進構建新的檢測工具,使我們能夠自動完成從識別和分析新的惡意軟件到查明不良行為者的工作。

我們還需要為人工智能基礎設施構建正確的工具,這樣每個人不必成為網(wǎng)絡安全專家或人工智能專家,也能從在網(wǎng)絡安全領域利用人工智能中受益。

 

2024 年的三大預測

人工智能在網(wǎng)絡安全領域的應用越來越廣泛,很明顯,我們正處于一個新時代的開端 – 也就是通常所說的“曲棍球效應”增長的早期階段。我們對能夠改善安全狀況的大型語言模型了解得越多,就越有可能在充分利用人工智能方面領先于潮流(以及我們的對手)。

我認為,在網(wǎng)絡安全領域,有很多方面都已經(jīng)成熟,可以討論越來越多地使用人工智能來放大力量,對抗復雜性和不斷擴大的攻擊載體,但有三件事很突出:

1.模型

人工智能模型將在創(chuàng)造植根于網(wǎng)絡安全需求的深入領域知識方面取得巨大進步。

去年,人們對改進通用大型語言模型給予了很多關注。研究人員努力讓模型變得更智能、更快、更便宜。然而,這些通用模型可以交付的功能與網(wǎng)絡安全的需求之間存在巨大差距。

具體來說,我們的行業(yè)不一定需要一個巨大的模型來回答“如何制作佛羅倫薩雞蛋”或“誰發(fā)現(xiàn)了美洲”這樣多元的問題。相反,網(wǎng)絡安全需要超精確模型,具備網(wǎng)絡安全威脅、流程等深入的領域知識。

在網(wǎng)絡安全中,準確性至關重要。例如,我們每天在 Palo Alto Networks 處理來自世界各地 SOC 的超過 75TB 的數(shù)據(jù)。即使 0.01% 的錯誤檢測判定也可能是災難性的。我們需要具有豐富安全背景和知識的高精度人工智能,提供專注于客戶安全需求的定制服務。換句話說,這些模型需要執(zhí)行的具體任務更少,但精確度更高。

工程師們在創(chuàng)建具有更多垂直行業(yè)和特定領域知識的模型方面取得了巨大進步,我相信,以網(wǎng)絡安全為中心的大型語言模型將在 2024 年出現(xiàn)。

2.用例

網(wǎng)絡安全領域的大型語言模型將出現(xiàn)變革性用例。這將使大型語言模型對于網(wǎng)絡安全不可或缺。

2023 年,每個人都對大型語言模型的驚人能力感到無比興奮。人們用這把“錘子”去敲擊每一顆“釘子”。

2024 年,我們將了解到并非每個用例都最適合大型語言模型。我們將針對與大型語言模型的優(yōu)勢相匹配的特定任務,推出真正的大型語言模型賦能的網(wǎng)絡安全產(chǎn)品。這將真正為客戶提高效率、改善生產(chǎn)力、增強可用性、解決現(xiàn)實問題并降低成本。

試想一下,能夠閱讀成千上萬有關安全問題的劇本,例如配置端點安全設備、排除性能問題、使用適當?shù)陌踩珣{據(jù)和權限引入新用戶,以及逐個供應商地分解安全架構設計。

大型語言模型以可擴展且快速的方式消耗、總結、分析以及生成正確信息的能力將改變安全運營中心,并徹底變革調度安全專業(yè)人員的方式、地點和時間。

3.人工智能安全與保障

除了利用人工智能實現(xiàn)網(wǎng)絡安全之外,如何在不損害人工智能模型智能的情況下構建安全的人工智能和安全的人工智能使用也是一個重要的話題。在這個方向上已經(jīng)有很多討論和偉大的工作。2024 年,真正的解決方案將得到部署,盡管這些解決方案可能只是初步的,但它們將是朝著正確方向邁出的一步。此外,還需要建立智能評估框架,動態(tài)評估人工智能系統(tǒng)的安全性和保障性。

請記住,大型語言模型也可能被不良行為者所利用。例如,黑客可以使用大型語言模型輕松生成大量質量更高的網(wǎng)絡釣魚電子郵件。還可以利用大型語言模型來創(chuàng)建全新的惡意軟件。但行業(yè)在使用大型語言模型方面正在采取更加協(xié)作和戰(zhàn)略性的行動,幫助我們相對于對手取得領先并保持領先。

2023 年 10 月 30 日,美國總統(tǒng)約瑟夫·拜登發(fā)布了一項行政命令,內容涉及負責任且適當?shù)厥褂萌斯ぶ悄芗夹g、產(chǎn)品和工具。這項命令的目的涉及要求人工智能供應商采取一切必要手段,確保其解決方案用于適當用途,而非惡意目的。

人工智能安全和保障代表一種真正的威脅 — 我們必須認真對待這種威脅,并且要假設黑客已經(jīng)在設計部署來攻擊我們的防御。人工智能模型已經(jīng)得到廣泛使用,這一簡單事實導致攻擊面和威脅載體大幅擴張。

這是一個充滿活力的領域。人工智能模型每天都在進步。即使是在部署人工智能解決方案后,模型也會不斷發(fā)展,永遠不會保持靜止。我們非常需要持續(xù)的評估、監(jiān)控、保護和改進。

越來越多的攻擊將使用人工智能。作為一個行業(yè),我們必須把開發(fā)安全的人工智能框架作為首要任務。這就好比當今的登月計劃,涉及供應商、企業(yè)、學術機構、政策制定者、監(jiān)管機構 — 整個技術生態(tài)系統(tǒng)的通力合作。毫無疑問,這將是一項艱巨的任務,但我想我們都意識到這是一項多么重要的任務。

結語:最好的還在后頭

在某種程度上,ChatGPT 等通用人工智能模型的成功已經(jīng)讓我們在網(wǎng)絡安全方面被寵壞了。我們都希望能夠構建、測試、部署并不斷改進我們的大型語言模型,使它們更加以網(wǎng)絡安全為中心,但我們卻被提醒,網(wǎng)絡安全是應用人工智能的一個非常獨特、專業(yè)、棘手的領域。我們需要從數(shù)據(jù)、工具、模型和用例這四個關鍵方面入手,使其發(fā)揮作用。

好消息是,我們可以接觸到許多聰明、堅定的人,他們有遠見,能夠理解為什么我們必須推進更精確的系統(tǒng),將功能、智能、易用性以及最重要的網(wǎng)絡安全相關性結合起來。

我有幸在這個領域工作了很長時間,Palo Alto Networks 內部的同事和我們周圍的行業(yè)每天都在取得進步,這讓我感到非常興奮和欣慰。

回到預言家這個棘手的問題上,我們很難對未來有絕對的把握。但我確實知道這兩件事:

2024 年將是人工智能在網(wǎng)絡安全領域大顯身手的一年。

而與未來相比,2024 年將顯得黯然失色。