與ChatGPT分享敏感信息是危險的。云公司正在與硅供應商合作,通過機密計算來確保數據安全,云安全將是AI芯片競賽中最大的驅動力之一。 亞馬遜警告其員工不要與ChatGPT分享敏感信息。同樣,早些時候,在與AIM的對話中,Infosys的Gary Bhattacharjee討論到,與從網絡上抓取所有內容的GPT相比,公司有更好的機會通過像HuggingFace的CodeGen這樣的模型來保護他們的知識產權,CodeGen是專門針對開源代碼進行培訓的。 如果我們看看金融、醫療保健、政府和其他高度監管的行業,ChatGPT之類的技術完全行不通。然而,為了增加這些行業的接入,云公司正在與硅供應商合作,通過機密計算(Confidential Computing)來確保數據安全。 最近,OpenAI發布了其chatbot的ChatGPT API,供用戶集成到他們的應用程序和產品中。首席執行官Sam Altman說,提交給OpenAI API的數據不會用于訓練。 與此同時,NVIDIA的博客表明,他們正在通過Hopper架構GPU,將虛擬機風格的機密計算GPU加速推向市場。Hopper將能夠擴展每個數據中心的AI工作負載,從小企業到exascale高性能計算(HPC)和萬億參數AI。 根據Tom's Hardware的最近報告,NVIDIA已經開始發運H100 (Hopper),這是A100的繼任者。雖然媒體報道強調了顯著的性能改進和更高的AI訓練吞吐量,但出問題的是H100對機密計算的集成。對于OpenAI來說,要實現商業雄心,深入數據隱私方面是絕對關鍵的——盡管成本高昂(運行該模型需要大約30,000個GPU)。Anjuna Security的區域銷售副總裁Kishan Patel表示,“與令牌化或應用級加密技術相比,機密計算是解決ChatGPT相關數據安全或隱私挑戰的一種更具可擴展性的方式。” Confidential VMs是一種基于硬件的安全解決方案,允許組織保護其最敏感的數據,即使這些數據正在被處理。該技術利用了基于硬件的可信執行環境(TEE),這基本上是一個硬件強制的安全地帶,與系統的其余部分完全隔離。 Register解釋了其中的兩步過程。首先,為了在GPU上實現機密計算,在通過PCIe總線在CPU和GPU之間傳輸數據之前,使用在NVIDIA的設備驅動程序和GPU之間交換的安全加密密鑰對數據進行加密。其次,一旦數據被傳輸到GPU,就會在GPU包內受硬件保護的隔離環境中被解密,在那里可以被處理以生成模型或推理結果。 這種隔離可確保應用和數據免受各種類型的攻擊,這些攻擊可能來自固件、操作系統、管理程序、虛擬機,甚至是計算機上的USB端口或PCI Express連接器等物理接口。 NVIDIA不是唯一的玩家——英特爾和AMD也在穩步前進。去年,英特爾推出了Amber項目,旨在為機密計算提供安全基礎,特別是在AI模型訓練和部署方面。最近,該公司還在其第四代至強處理器中添加了基于相同虛擬機隔離技術的信任域擴展(TDX)。 同樣,AMD已經與谷歌云合作,為其Epyc處理器提供額外的安全層。這是因為當時AMD是主流服務器CPU中唯一提供機密計算能力的公司。 芯片公司有更大的動力與微軟、谷歌、IBM、甲骨文等云提供商合作,以便能夠購買大量的處理器。這些云公司的安全研究人員將能夠仔細檢查設備實現及其定制測試的每個細節。尤其是這一點,因為獨立研究人員在過去已經多次發現英特爾SGX和AMD SEV的幾個缺陷。 此外,RISC-V等開源社區也在不斷努力,在一個名為Keystone的開源項目中實現機密計算。 然而,盡管上述努力旨在確保CPU級別的安全性,但NVIDIA的Hopper架構為GPU提供了VM風格的機密計算。考慮到英偉達一直在AI上全力以赴,將機密計算引入GPU使其獲得了進一步的優勢。 根據一項研究,機密計算市場可能在五年內增長26倍,到2026年將達到540億美元。因此,說云安全將是AI芯片競賽中最大的驅動因素之一并不為過。 查詢進一步信息,請訪問英文網站 http://analyticsindiamag.com/how-confidential-computing-is-changing-the-ai-chip-game/。(鐠元素)
|