近期,OpenAI發布了聊天機器人ChatGPT,因其強大的能力因其了人們的廣泛關注,甚至許多人認為世界開始發生了變化。
如果學生可以讓ChatGPT為他們寫論文,那麼大學生們肯定會爭先恐後地想出如何利用這款AI工具來完成學業。因為,我們已經看到ChatGPT通過了法學院考試、商學院考試,甚至是行醫執照考試。全球各地的員工開始使用它來撰寫電子郵件、報告,甚至編寫電腦程式碼。
不過,目前ChatGPT並不完美,其資料庫也不是最新的,但它比普通人以前接觸過的任何人工智慧系統都要強大,用戶體驗也比企業級系統的人工智慧更友好。
似乎一旦像ChatGPT這樣的大型語言模型變得足夠大,並且在其神經網路中擁有足夠的訓練資料、足夠的參數和足夠的層,奇怪的事情就會開始發生。它發展了在較小模型中不明顯或不可能的“特性”。換句話說,它開始表現得好像它擁有常識和對世界的理解——或者至少是某種近似於這些東西的東西。
透過近期的新聞,我們可以看到各大科技公司爭先恐後地做出反應。微軟向OpenAI投資了100億美元,並為 Bing添加了ChatGPT功能,這使得沉寂了很久了的搜尋引擎再次成為話題。
Google也宣布了自己的AI聊天機器人計劃,並投資了OpenAI的競爭對手Anthropic,後者由前OpenAI員工創立,並擁有自己的聊天機器人Claude。
亞馬遜宣布計劃建立自己的ChatGPT競爭對手,並宣布與另一家人工智慧新創公司Hugging Face建立合作夥伴關係。 Facebook的Meta也將快速跟進自己的AI工作計劃。
同時,幸運的是,安全專家也可以使用這項新技術。他們可以將其用於研究、幫助編寫電子郵件和報告、幫助編寫程式碼,以及我們將深入研究的更多方式。
但令人不安的是,壞人也將它用於所有這些事情,以及網路釣魚和社會工程。他們也使用ChatGPT來幫助他們以幾個月前無法想像的規模和保真度來製造深度造假。 ChatGPT 本身也可能是安全威脅。
接下來,讓我們討論這些AI工具可能對資料中心帶來的安全主題,從惡意行為者可能使用的方式開始,在某些情況下,他們已經在使用ChatGPT。然後,我們將探討網路安全專業人員使用ChatGPT 等人工智慧工具的好處和危險。
毫無疑問,惡意行為者已經在使用ChatGPT。那麼,ChatGPT將如何用於幫助刺激網路攻擊。在2 月發布的黑莓IT 領導者調查中,53% 的受訪者表示它將幫助駭客創建更可信的網路釣魚電子郵件,49%的受訪者指出它有能力幫助駭客提高他們的編碼能力。
調查的另一項發現:49%的IT和網路安全決策者表示,ChatGPT將用於傳播錯誤訊息和虛假訊息,48%的人認為它可用於製作全新的惡意軟體。另有46%的受訪者表示ChatGPT可以幫助改善現有攻擊。
Constellation Research副總裁兼首席分析師Dion Hinchcliffe表示:「我們看到編碼人員,甚至是非編碼人員使用ChatGPT產生可以有效利用的漏洞。」
畢竟,人工智慧模型已經閱讀了所有公開發表的內容。包括「每一份研究漏洞報告,」Hinchcliffe說,「所有安全專家的每一次論壇討論。它就像一個超級大腦,可以用各種方式破壞系統。」
這是一個可怕的前景。
而且,當然,攻擊者也可以用它來寫作,他補充說。 「我們將被來自各地的錯誤訊息和網路釣魚內容所淹沒。」
對於使用ChatGPT的資料中心網路安全專業人員而言,雲安全聯盟執行長Jim Reavis表示,他在過去幾週內看到了一些令人難以置信的AI工具病毒式實驗。
「你可以看到它為安全編排、自動化和回應工具、DevSecOps和一般雲端容器衛生編寫了大量程式碼,」他說。 「ChatGPT產生了大量的安全和隱私政策。也許,最值得注意的是,為了創建高品質的釣魚電子郵件,我們進行了很多測試,希望使我們的防禦在這方面更具彈性。」
此外,Reavis 說,幾家主流網路安全供應商在他們的引擎中已經或將很快擁有類似的技術,並根據特定規則進行訓練。
「我們之前也看到過具有自然語言介面功能的工具,但還沒有一個廣泛開放的、面向客戶的ChatGPT介面,」他補充道。 「我希望很快能看到與ChatGPT接口的商業解決方案,但我認為現在的最佳點是多種網路安全工具與ChatGPT的系統整合以及公有雲中的DIY安全自動化。」
他表示,總的來說,ChatGP 及其同行很有希望幫助資料中心網路安全團隊更有效率地運作,擴大受限資源並識別新的威脅和攻擊。
「隨著時間的推移,幾乎所有網路安全功能都將透過機器學習得到增強,」Reavis說。 「此外,我們知道惡意行為者正在使用諸如ChatGPT之類的工具,並且假設您將需要利用A 來對抗惡意AI。」
例如,電子郵件安全供應商Mimecast已經在使用大型語言模型產生合成電子郵件來訓練自己的網路釣魚偵測AI工具。
「我們通常使用真實的電子郵件來訓練我們的模型,」Mimecast首席資料科學家兼機器學習工程師洛佩茲(Jose Lopez)說。
為訓練集創建合成資料是ChatGPT等大型語言模型的主要優勢之一。 「現在我們可以使用這種大型語言模型來產生更多電子郵件,」洛佩茲說。
不過,他拒絕透露Mimecast使用的是哪種特定的大型語言模型。他說這些資訊是公司的「秘密武器」。
不過,Mimecast目前並不打算偵測傳入的電子郵件是否由ChatGPT產生。那是因為使用ChatGPT的不只是壞人。 AI是一種非常有用的生產力工具,許多員工正在使用它來改善他們自己的、完全合法的通訊。
例如,洛佩茲本人是西班牙人,現在正在使用ChatGPT而不是語法檢查器來改進自己的寫作。
Lopez也使用ChatGPT來幫助編寫程式碼——許多安全專業人員可能正在做的事情。
「在我的日常工作中,我每天都使用 ChatGPT,因為它對程式設計真的很有用,」洛佩茲說。 「有時它是錯的,但它經常是正確的,足以讓你對其他方法敞開心扉。我不認為ChatGPT會將沒有能力的人轉變為超級駭客。」
OpenAI已經開始致力於提高系統的準確性。微軟透過Bing Chat使其能夠存取網路上的最新資訊。
Lopez補充說,下一個版本將在品質上有一個巨大的飛躍。此外,ChatGP 的開源版本即將推出。
「在不久的將來,我們將能夠針對特定的事物微調模型,」他說。 「現在你不只是有一把錘子——你有一整套工具。」
例如,企業可以微調模型以監控社交網路上的相關活動並尋找潛在威脅。只有時間才能證明結果是否比目前的方法更好。
將ChatGPT加入現有軟體也變得更容易、更便宜;3 月 1 日,OpenAI發布了一個API,供開發人員存取 ChatGPT 和語音轉文字模型Whisper。
一般來說,企業正在迅速採用人工智慧驅動的安全工具來應對比以往任何時候都更大規模的快速演變的威脅。
根據最新的Mimecast 調查,92%的企業已經在使用或計劃使用人工智慧和機器學習來加強其網路安全。
特別是,50%的人認為使用它可以更準確地檢測威脅,49%的人認為可以提高阻止威脅的能力,48%的人認為可以在發生攻擊時更快地進行補救。
81%的受訪者表示,向電子郵件和協作工具使用者提供即時、情境警告的人工智慧系統將是一個巨大的福音。
報告指出:「12%的人甚至表示,這種系統的好處將徹底改變網路安全的實施方式。」
Omdia網路安全實踐高級分析師Ketaki Borade表示,像ChatGPT這樣的人工智慧工具也可以幫助縮小網路安全技能短缺的差距。 「如果正確提供提示,使用此類工具可以加快更簡單的任務,並且有限的資源可以專注於更具有時間敏感性和高優先級的問題。」
「這些大型語言模型是一種根本性的範式轉變,」IEEE成員、Applied Science Group創始人兼執行長Yale Fox說。 「反擊惡意AI驅動攻擊的唯一方法是在防禦中使用AI。資料中心的安全經理需要提高現有網路安全資源的技能,並尋找專門從事人工智慧的新人員。」
如前所述,ChatGPT和Copilot等人工智慧工具可以幫助安全專業人員編寫程式碼,從而提高他們的效率。但是,根據康乃爾大學最近的研究,使用 AI 助理的程式設計師更有可能創建不安全的程式碼,同時認為它比那些沒有使用的人更安全。
在不考慮風險的情況下使用ChatGPT的潛在缺點時,這只是冰山一角。
有幾個廣為人知的ChatGPT或Bing Chat實例,它們非常自信地提供不正確的信息,編造統計數據和引述,或者對特定概念提供完全錯誤的解釋。
盲目信任它的人最終可能會陷入非常糟糕的境地。
「如果你使用ChatGPT開發的腳本對10000台虛擬機器進行維護並且腳本存在錯誤,你將遇到重大問題,」雲端安全聯盟的Reavis說。
資料中心安全專業人員使用ChatGPT的另一個潛在風險是資料外洩。
OpenAI讓ChatGPT免費的原因是它可以從與使用者的互動中學習。因此,例如,如果您要求ChatGPT分析您的資料中心的安全狀況並找出薄弱環節,那麼您現在已經向ChatGPT傳授了您的所有安全漏洞。
現在,考慮一下以工作為導向的社群網路Fishbowl 在2 月進行的一項調查,該調查發現43% 的專業人士在工作中使用ChatGPT 或類似工具,高於一個月前的27% 。如果他們這樣做,70%的人不會告訴他們的老闆。因此,潛在的安全風險很高。
據報道,這就是摩根大通、亞馬遜、Verizon、埃森哲和許多其他公司禁止其員工使用該工具的原因。
OpenAI本月發布的新ChatGPT API將允許企業將其資料保密並選擇不用於訓練,但不能保證不會發生任何意外洩漏。
將來,一旦ChatGPT的開源版本可用,資料中心將能夠在其防火牆後、在本地運行它,避免可能暴露給外部人員。
最後,Insight的傑出工程師Carm Taglienti表示,使用ChatGPT式技術來保護內部資料中心安全存在潛在的道德風險。
「這些模型非常擅長理解我們作為人類的溝通方式,」他說。因此,可以存取員工通訊的 ChatGPT 式工具可能能夠發現表明潛在威脅的意圖和潛台詞。
「我們正在努力防止網路駭客攻擊和內部環境駭客攻擊。許多違規行為的發生是因為人們帶著東西走出門外,」他說。
他補充說,像 ChatGPT 這樣的東西「對一個組織來說可能非常有價值」。 「但現在我們正在進入這個道德領域,人們將在這個領域對我進行介紹並監控我所做的一切。」
這是數據中心可能還沒有準備好迎接少數派報告式的未來。
以上是ChatGPT對資料中心網路安全有哪些影響?的詳細內容。更多資訊請關注PHP中文網其他相關文章!