新聞| | PChome| 登入
2025-05-23 10:24:37| 人氣17| 回應0 | 上一篇 | 下一篇
推薦 0 收藏 0 轉貼0 訂閱站台

HPE與NVIDIA深化合作,強化在AI工廠產品組合上的整合

Hewlett Packard Enterprise(NYSE:HPE)宣布強化其NVIDIA AI Computing by HPE解決方案組合的多項功能,以全面支援AI生命週期,並滿足企業、服務供應商、政府單位與研發機構的多元需求。此次更新進一步深化了HPE產品與NVIDIA AI Enterprise的整合,包括擴大支援搭載加速運算能力的HPE Private Cloud AI,以及推出適用於NVIDIA AI Data Platform的HPE Alletra Storage MP X10000軟體開發套件(SDK)。此外,HPE也將針對NVIDIA RTX PRO™ 6000 Blackwell Server Edition GPU與NVIDIA Enterprise AI Factory驗證設計推出新運算與軟體解決方案。

「HPE與NVIDIA的深度合作持續為雙方共同客戶帶來突破性成果,」HPE總裁暨執行長Antonio Neri表示。「我們攜手打造了結合HPE強大解決方案的尖端AI技術,協助企業在AI歷程的各個階段充分發揮這些技術的潛力。我們的合作不僅滿足當前需求,更為AI驅動的未來奠定堅實基礎。」

「企業可利用HPE系統打造最先進的NVIDIA AI工廠,使其基礎架構為生成式與代理型AI的時代做好準備,」NVIDIA創辦人暨執行長黃仁勳表示。「NVIDIA與HPE正攜手為企業奠定基礎,協助他們將資料智慧作為新型的產業資源,並從資料中心擴展至雲端與邊緣。」

HPE Private Cloud AI新增NVIDIA AI Enterprise功能分支支援
HPE Private Cloud AI是HPE與NVIDIA共同開發的一站式雲端AI工廠解決方案,包含專為開發者打造的工具,協助企業在組織內推動統一的AI策略,以提升工作負載效益並大幅降低風險。為加強協助AI開發者,HPE Private Cloud AI將支援NVIDIA AI Enterprise的功能分支模型更新,包括AI框架、內含預訓練模型的NVIDIA NIM微服務與多項SDK。透過功能分支模型支援,開發者可針對AI工作負載測試與驗證各項軟體功能和優化設定。搭配內建安全防護機制的既有生產分支模型支援,HPE Private Cloud AI可協助各種規模的企業建置開發者系統,並擴展至生產等級的代理型與生成式AI(GenAI)應用,同時在企業內部採用安全且多層次的策略。

HPE Private Cloud AI是代理型與GenAI工作負載的全端解決方案,未來也將支援NVIDIA Enterprise AI Factory驗證設計。

HPE最新儲存解決方案支援NVIDIA AI Data Platform
HPE將針對HPE Alletra Storage MP X10000推出適用於NVIDIA AI Data Platform參考設計的SDK。藉由整合HPE最新資料平台與NVIDIA可自訂的參考設計,為客戶提供更快速的效能與智慧的流程協作,從而加速代理型AI的發展。全新X10000 SDK是HPE資料智慧策略的重要一環,可將具備情境資訊且適用於AI的資料直接整合至NVIDIA AI生態系統中,進一步簡化NVIDIA加速基礎架構中非結構化資料的擷取、推論、訓練與持續學習流程。此SDK整合的主要效益包括:
透過靈活的即時資料處理、向量索引、更強大的中繼資料與資料管理機制,充分釋放資料價值。
透過GPU記憶體、系統記憶體與X10000之間的遠端直接記憶體存取(RDMA)進行資料傳輸,加速通往NVIDIA AI Data Platform的資料路徑,從而提升效率。
透過X10000的模組化、組合式建構模組,使客戶能夠依據不同工作負載需求獨立擴展容量與效能,以最適規模進行部署。

客戶可透過RDMA傳輸技術順暢統一儲存與資料智慧層,利用原始企業資料為代理型AI應用程式和工具提供資訊。HPE與NVIDIA攜手合作,為客戶開創從邊緣、核心到雲端的即時智慧資料存取新時代。

更多關於此次整合的最新資訊將於HPE Discover Las Vegas 2025大會上公布。

業界領先的AI伺服器全面升級,新增對NVIDIA RTX PRO 6000 Blackwell的支援

搭載NVIDIA H100 NVL、H200 NVL與L40S GPU的HPE ProLiant Compute DL380a Gen12伺服器在最新一輪MLPerf Inference: Datacenter v5.0基準測試的10項測試中名列前茅,包括GPT-J、Llama2-70B、ResNet50與RetinaNet。此款業界領先的AI伺服器即將推出搭載10個NVIDIA RTX PRO 6000 Blackwell Server Edition GPU的版本,為企業AI工作負載提供更強大的功能與更卓越的效能,包括多模態代理型AI推論、實體AI、模型調校,以及設計、圖形與影音應用等多元場景的支援。主要特色包括:
先進的散熱選項:HPE ProLiant Compute DL380a Gen12提供氣冷與直接液冷(DLC)兩種選擇,運用HPE領先業界的液冷技術,在高負載情況下維持最佳效能。
更強大的安全防護:HPE ProLiant Compute Gen12系列內建HPE Integrated Lights Out(iLO)7,並具備基於信任根技術的安全防護機制,是業界首款支援後量子密碼學的伺服器,且符合FIPS 140-3 Level 3高層級加密安全標準的嚴格要求。
營運管理能力:HPE Compute Ops Management為伺服器環境提供安全且自動化的生命週期管理功能,透過主動告警與AI預測分析,協助提升能源效率與整體系統健康狀況。

HPE的另外兩款伺服器也在MLPerf Inference v5.0基準測試中名列前茅。透過第三方驗證,HPE不僅證明其在AI創新領域的領導地位,更展現HPE AI Factory解決方案的強大實力。這些系統連同HPE ProLiant Compute DL380a Gen12,在超過50項的測試場景中領先群倫。其中:
搭載雙插槽NVIDIA GH200 NVL2的HPE ProLiant Compute DL384 Gen12伺服器在四項測試中排名第一,包括包括Llama2-70B與Mixtral-8x7B。
配備8個NVIDIA H200 SXM GPU的HPE Cray XD670伺服器在30個不同測試場景中奪得第一,包括大型語言模型(LLM)與電腦視覺任務。

以全新加速運算優化解決方案強化AI基礎架構
HPE擴大旗下OpsRamp軟體的AI基礎架構優化解決方案,以支援即將推出的NVIDIA RTX PRO 6000 Blackwell Server Edition GPU,讓AI工作負載更順暢運行。HPE這款軟體即服務(SaaS)解決方案將協助企業 IT 團隊簡化在混合環境中部署、監控與優化分散式 AI 基礎架構。HPE OpsRamp能提供AI工作負載至基礎架構的全端可觀測性、工作流程自動化能力,以及AI驅動的分析與事件管理功能。HPE OpsRamp已與NVIDIA基礎架構深度整合,包括NVIDIA加速運算、NVIDIA BlueField、NVIDIA Quantum InfiniBand與Spectrum-X乙太網路平台,以及NVIDIA Base Command Manager,可提供精細的衡量指標,更有效監控AI基礎架構的效能與韌性。

HPE OpsRamp提供IT團隊以下能力:

監控AI基礎架構整體健康狀況與效能表現,包括GPU溫度、使用狀況、記憶體用量、功耗、時脈速度與風扇轉速。
追蹤GPU與CPU在叢集中的使用狀況,以優化工作排程與資源利用。
自動回應特定事件,例如降低時脈速度或關閉GPU以避免損壞。
分析歷史效能與使用狀況資料,以預測未來資源需求並優化配置。
監控功耗與資源使用狀況,以優化大規模AI部署的成本。

上市時程
HPE Private Cloud AI將於今年夏季新增對NVIDIA AI Enterprise功能分支的支援。
HPE Alletra Storage MP X10000 SDK以及對NVIDIA加速運算基礎架構的直接記憶體存取功能預計於2025年夏季開始提供。
搭載NVIDIA RTX PRO 6000 Server Edition的HPE ProLiant Compute DL380a Gen12將於2025年6月4日起開放訂購。
HPE OpsRamp軟體將於NVIDIA RTX PRO 6000 Server Edition上市時同步提供支援。

台長: 正平公關

TOP
詳全文