公司在Supercomputing2024上與NVIDIA、Arm和Supermicro攜手展示全新解決方案,為企業AI部署提供卓越的效能密度和節能效益亞特蘭大和加州坎貝爾2024年11月19日--來自Supercomputing2024:AI原生數據平台公司WEKA預先發佈了業界首個適用於NVIDIAGrace™CPU超級晶片的高效能儲存解決方案。此方案將在Supermicro的全新高效能儲存伺服器上運行,該伺服器配備WEKA®數據平台軟件和Arm®Neoverse™V2核心,並採用NVIDIAGraceCPU超級晶片、NVIDIAConnectX-7及NVIDIABlueField-3網絡技術,以無可比擬的性能密度和電源效率加速企業AI工作負載。WEKAintroducesFirstAIStorageClusterBuiltonNVIDIAGraceCPUSuperchip(PRNewsFoto/WekaIO)推動新一代AI創新現今的AI和高效能運算(HPC)工作負載需要極速的數據存取,但大部分數據中心都面臨空間和電源限制日益增加的挑戰。NVIDIAGrace將旗艦級x86-64雙插槽工作站或伺服器平台的性能水平整合至單一模組中。GraceCPU超級晶片由144個高性能ArmNeoverseV2核心提供支援,其能源效率比是傳統x86伺服器的兩倍。NVIDIAConnectX-7網絡接口卡和BlueField-3超級網絡接口卡採用專用RDMA/RoCE加速技術,提供高吞吐量、低延遲的網絡連接,速度高達400Gb/s。WEKA數據平台革命性的零拷貝軟件架構與SupermicroPetascale儲存伺服器相輔相成,最大程度地減少I/O瓶頸,降低AI管道的延遲,從而顯著提高GPU使用率,加速AI模型訓練和推理,大幅縮短產生首個token的時間、加快探索和洞察的速度,同時降低功耗和相關成本。此方案的主要優勢包括:極速和可擴展性,滿足企業AI需求:NVIDIAGraceCPU超級晶片配備144個高效能Arm®Neoverse™V2核心,這些核心透過高效能、客製化設計的NVIDIA可擴展一致性架構互相連接,能以一半的功耗提供媲美雙插槽x86CPU伺服器的性能。NVIDIAConnectX-7網絡接口卡和NVIDIABlueField-3超級網絡接口卡提供高性能網絡連接,對企業AI工作負載至關重要。配合WEKA數據平台的AI原生架構(可將產生首個token的時間縮短高達10倍),此方案能確保幾乎任何規模的AI數據管道都能實現最佳性能。資源使用效率最佳化:高效能WEKA數據平台與GraceCPU的LPDDR5X內存架構相結合,可確保高達1TB/s的內存頻寬和無縫數據流,消除效能瓶頸。透過整合WEKA的分佈式架構和核心旁路技術,機構可以加快AI模型訓練速度、縮短epoch時間和提升推理速度,使其成為高效擴展AI工作負載的理想方案。卓越的能源和空間效益:WEKA數據平台可將GPU堆棧效率提升10至50倍,無縫處理大規模AI和高效能運算(HPC)工作負載。此外,透過減少數據拷貝和提升雲端彈性,WEKA平台可將數據基礎設施佔用空間縮小4至7倍,並減少碳排放——每年每PB儲存量最多可減少260噸二氧化碳當量排放,並將能源成本降低10倍。由於GraceCPU超級晶片的能源效率比領先的x86伺服器高兩倍,客戶可以運用更少資源完成更多任務,在提升AI性能的同時實現可持續發展目標。「AI正在改變全球企業的創新、創造和營運方式,但國際原子能機構的數據顯示,AI應用急劇增長,導致數據中心的能源消耗大幅增加,預計到2026年將增加一倍,」WEKA產品總監NileshPatel表示。「WEKA很高興與NVIDIA、Arm和Supermicro合作,為下一代數據中心開發高性能、節能的解決方案,推動企業人工智能和高性能工作負載發展,同時加速處理大量數據,縮短獲取可操作見解的時間。」「WEKA與Supermicro攜手開發了一款功能強大的儲存解決方案,此方案與NVIDIAGraceCPU超級晶片無縫整合,有效提升大規模、數據密集型AI工作負載的效率。此方案可在降低能耗的同時提供快速數據存取,讓以數據驅動的機構為其人工智能基礎設施增能。」NVIDIA數據中心CPU總監IvanGoldwasser說道。「Supermicro即將推出的ARS-121L-NE316RPetascale儲存伺服器是首款採用NVIDIAGrace超級晶片CPU的儲存優化伺服器,」Supermicro儲存產品管理高級總監PatrickChiu表示,「此系統配備16個高效能Gen5E3.SNVMe固態硬碟插槽和三個PCIeGen5網絡插槽,支援最多兩個NVIDIAConnectX-7或BlueField-3超級網絡接口卡,以及一個OCP3.0網絡適配器。此系統非常適合AI、數據分析和超大規模雲端應用等高效能儲存工作負載。我們與NVIDIA和WEKA合作開發的數據平台,讓客戶能夠在提升數據中心能源效率的同時,增強AI處理能力。」「人工智能創新需要採用全新的晶片和系統設計方法,在性能和能效之間取得平衡。Arm很榮幸能與NVIDIA、WEKA和Supermicro合作,提供一個高性能企業級AI解決方案,此方案兼具卓越價值和出色的能源效率。」Arm高效能運算總監DavidLecomber說道。WEKA和Supermicro採用NVIDIAGraceCPU超級晶片的儲存解決方案將於2025年初上市。Supercomputing2024的與會者可前往WEKA的#1931號展位,了解更多詳情和觀看新解決方案的示範。關於WEKAWEKA正在為AI時代的企業數據堆疊構建一種新方法。WEKA®數據平台採用雲端原生及AI原生架構,樹立AI基礎設施的標竿。該平台可靈活部署於任何地方,支援本地、雲端和邊緣運算環境之間的無縫數據轉移。該平台將傳統數據孤島轉化為動態數據管道,可加速GPU運算、AI模型訓練和推理以及其他高性能工作負載,使之能更高效地運作、減少能耗,並降低相關的碳排放。WEKA幫助全球最具創新精神的企業和研究機構解決複雜的數據挑戰,更快速、更可持續地探索新發現、見解和成果,其客戶更是包括財富50強中的12間企業。請瀏覽www.weka.io了解更多資訊,或在LinkedIn、X和Facebook上關注WEKA。WEKA在「2024年Gartner®魔力象限™文件與對象儲存平台」(2024Gartner®MagicQuadrant™forFileandObjectStoragePlatforms)中被認可為「願景領袖」(Visionary)——詳情請閱覽報告。「WEKA」及WEKA標誌乃WekaIO,Inc.的註冊商標。此處使用的其他商業名稱可能為其他商標擁有者分別擁有。
公司在 Supercomputing 2024 上與 NVIDIA、Arm 和 Supermicro 攜手展示全新解決方案,為企業 AI 部署提供卓越的效能密度和節能效益
亞特蘭大和加州坎貝爾2024年11月19日 -- 來自 Supercomputing 2024:AI 原生數據平台公司WEKA預先發佈了業界首個適用於 NVIDIA Grace™ CPU 超級晶片的高效能儲存解決方案。此方案將在 Supermicro 的全新高效能儲存伺服器上運行,該伺服器配備 WEKA® 數據平台軟件和 Arm® Neoverse™ V2 核心,並採用 NVIDIA Grace CPU 超級晶片、NVIDIA ConnectX-7 及 NVIDIA BlueField-3 網絡技術,以無可比擬的性能密度和電源效率加速企業 AI 工作負載。
WEKA introduces First AI Storage Cluster Built on NVIDIA Grace CPU Superchip (PRNewsFoto/WekaIO)
推動新一代 AI 創新
現今的 AI 和高效能運算 (HPC) 工作負載需要極速的數據存取,但大部分數據中心都面臨空間和電源限制日益增加的挑戰。
NVIDIA Grace 將旗艦級 x86-64 雙插槽工作站或伺服器平台的性能水平整合至單一模組中。Grace CPU 超級晶片由 144 個高性能 Arm Neoverse V2 核心提供支援,其能源效率比是傳統 x86 伺服器的兩倍。NVIDIA ConnectX-7 網絡接口卡和 BlueField-3 超級網絡接口卡採用專用 RDMA/RoCE 加速技術,提供高吞吐量、低延遲的網絡連接,速度高達 400Gb/s。WEKA 數據平台革命性的零拷貝軟件架構與 Supermicro Petascale 儲存伺服器相輔相成,最大程度地減少 I/O 瓶頸,降低 AI 管道的延遲,從而顯著提高 GPU 使用率,加速 AI 模型訓練和推理,大幅縮短產生首個 token 的時間、加快探索和洞察的速度,同時降低功耗和相關成本。
此方案的主要優勢包括:
- 極速和可擴展性,滿足企業 AI 需求:NVIDIA Grace CPU 超級晶片配備 144 個高效能 Arm® Neoverse™ V2 核心,這些核心透過高效能、客製化設計的 NVIDIA 可擴展一致性架構互相連接,能以一半的功耗提供媲美雙插槽 x86 CPU 伺服器的性能。NVIDIA ConnectX-7 網絡接口卡和 NVIDIA BlueField-3 超級網絡接口卡提供高性能網絡連接,對企業 AI 工作負載至關重要。配合 WEKA 數據平台的 AI 原生架構(可將產生首個 token 的時間縮短高達 10 倍),此方案能確保幾乎任何規模的 AI 數據管道都能實現最佳性能。
- 資源使用效率最佳化:高效能 WEKA 數據平台與 Grace CPU 的 LPDDR5X 內存架構相結合,可確保高達 1 TB/s 的內存頻寬和無縫數據流,消除效能瓶頸。透過整合 WEKA 的分佈式架構和核心旁路技術,機構可以加快 AI 模型訓練速度、縮短 epoch 時間和提升推理速度,使其成為高效擴展 AI 工作負載的理想方案。
- 卓越的能源和空間效益: WEKA 數據平台可將 GPU 堆棧效率提升 10 至 50 倍,無縫處理大規模 AI 和高效能運算 (HPC) 工作負載。此外,透過減少數據拷貝和提升雲端彈性,WEKA 平台可將數據基礎設施佔用空間縮小 4 至 7 倍,並減少碳排放——每年每 PB 儲存量最多可減少 260 噸二氧化碳當量排放,並將能源成本降低 10 倍。由於 Grace CPU 超級晶片的能源效率比領先的 x86 伺服器高兩倍,客戶可以運用更少資源完成更多任務,在提升 AI 性能的同時實現可持續發展目標。
「AI 正在改變全球企業的創新、創造和營運方式,但國際原子能機構的數據顯示,AI 應用急劇增長,導致數據中心的能源消耗大幅增加,預計到 2026 年將增加一倍,」WEKA 產品總監 Nilesh Patel 表示。「WEKA 很高興與 NVIDIA、Arm 和 Supermicro 合作,為下一代數據中心開發高性能、節能的解決方案,推動企業人工智能和高性能工作負載發展,同時加速處理大量數據,縮短獲取可操作見解的時間。」
「WEKA 與 Supermicro 攜手開發了一款功能強大的儲存解決方案,此方案與 NVIDIA Grace CPU 超級晶片無縫整合,有效提升大規模、數據密集型 AI 工作負載的效率。此方案可在降低能耗的同時提供快速數據存取,讓以數據驅動的機構為其人工智能基礎設施增能。」NVIDIA 數據中心 CPU 總監 Ivan Goldwasser 說道。
「Supermicro 即將推出的 ARS-121L-NE316R Petascale 儲存伺服器是首款採用 NVIDIA Grace 超級晶片 CPU 的儲存優化伺服器,」Supermicro 儲存產品管理高級總監 Patrick Chiu 表示,「此系統配備 16 個高效能 Gen5 E3.S NVMe 固態硬碟插槽和三個 PCIe Gen 5 網絡插槽,支援最多兩個 NVIDIA ConnectX-7 或 BlueField-3 超級網絡接口卡,以及一個 OCP 3.0 網絡適配器。此系統非常適合 AI、數據分析和超大規模雲端應用等高效能儲存工作負載。我們與 NVIDIA 和 WEKA 合作開發的數據平台,讓客戶能夠在提升數據中心能源效率的同時,增強 AI 處理能力。」
「人工智能創新需要採用全新的晶片和系統設計方法,在性能和能效之間取得平衡。Arm 很榮幸能與 NVIDIA、WEKA 和 Supermicro 合作,提供一個高性能企業級 AI 解決方案,此方案兼具卓越價值和出色的能源效率。」Arm 高效能運算總監 David Lecomber 說道。
WEKA 和 Supermicro 採用 NVIDIA Grace CPU 超級晶片的儲存解決方案將於 2025 年初上市。Supercomputing 2024 的與會者可前往 WEKA 的 #1931 號展位,了解更多詳情和觀看新解決方案的示範。
關於 WEKA
WEKA 正在為 AI 時代的企業數據堆疊構建一種新方法。WEKA® 數據平台採用雲端原生及 AI 原生架構,樹立 AI 基礎設施的標竿。該平台可靈活部署於任何地方,支援本地、雲端和邊緣運算環境之間的無縫數據轉移。該平台將傳統數據孤島轉化為動態數據管道,可加速 GPU 運算、AI 模型訓練和推理以及其他高性能工作負載,使之能更高效地運作、減少能耗,並降低相關的碳排放。WEKA 幫助全球最具創新精神的企業和研究機構解決複雜的數據挑戰,更快速、更可持續地探索新發現、見解和成果,其客戶更是包括財富 50 強中的 12 間企業。請瀏覽 www.weka.io 了解更多資訊,或在 LinkedIn、X和 Facebook 上關注 WEKA。
WEKA 在「2024年Gartner®魔力象限™文件與對象儲存平台」(2024 Gartner® Magic Quadrant™ for File and Object Storage Platforms)中被認可為「願景領袖」(Visionary)——詳情請閱覽報告。
「WEKA」及WEKA標誌乃WekaIO, Inc.的註冊商標。此處使用的其他商業名稱可能為其他商標擁有者分別擁有。
現正直播