HPE 豎立 Gen AI 即服務產業標竿

2025-06-23

結合LLM語言模型的生成式AI應用,預估未來產值將占所有AI應用中的第一名。

綜觀現階段主流的AI運用中,生成式Gen AI最受企業與產業人士青睞,殺手級應用的背後需樣賴LLM大語言模型的建置與訓練,針對LLM大語言模型建置與管理,HPE LLM Appliance能提供企業導入、訓練出專屬的LLM模型,再搭配相關知識庫與人機互動平台,模型微調訓練後就能迅速理解、回應使用者的疑難雜症,或理解語意後協助生成需要的文件等工作,提升日常工作效率達數十倍之譜。

HPE LLM Appliance服務完整涵蓋硬體、AI模型與服務

HPE LLM Appliance可支援的LLM大語言模型包含:

  • SearchGPT搜尋用生成預訓練轉換器:可運用在檢索增強生成式技術(RAG)的問與答系統,如智慧客服等應用。
  • SmartChat智慧聊天模型:基於LLM大語言模型所訓練而成的聊天機器人。
  • Report System簡報系統生成模型:基於LLM大語言模型所訓練而成的簡報/文件產生器。
  • Taiwan Specialize Foundation Model台灣本地化語言模型:可支援GPT4、Gemini、Claude、Llama、Gemma、TAIDE、TMAM等大語言模型,具備台灣中文語彙之LLM,為台灣在地化AI應用提供更精準的模型。

 

HPE LLM Appliance方案可涵蓋硬體平台,HPE提供AI就緒的伺服器方案,針對企業所需的LLM規模與推演資料量,提供不同量級的運算能力與GPU模組,如同所有的數位服務專案,AI應用從基礎硬體、模型建置到最後的應用推論,過程中不會只仰賴單一系統,而是從伺服器、網路、儲存、監控、營運管理到諮詢服務等,HPE LLM Appliance所提供的服務,涵蓋了基礎運算系統與LLM語言模型的建置,幫助企業建置、布署生成式AI等應用,協助企業跨出AI轉型的第一步。

 

對應資料分析量,AI分級滿足龐大運算力
AI應用專案的規模,經常採用模型處理的資料量來計算,HPE LLM Appliance根據算力所需區分為4種規模,並針對不同規模量身訂做給予對應的運算方案及LLM套餐:

HPE AI Appliance建議的規格依循資料數據處理量來分級,若企業於導入AI服務時有超低延遲回應,或是處理的資料型態需整合更多GPU效能時,也都能根據實際情況將方案內搭配的伺服器設備升級,或是搭配其他HPE ProLiant系列的伺服器,若想確認規劃中的AI專案屬於何種AI規模,HPE的專業團隊也能以豐富的產業整合經驗提供詳實的分析。


從AI模型的規模出發,企業能先以自身的應用環境切入,評估導入所需的算力,甚至是未來發展所需投入的GPU資源等,不論是一次到位或逐步漸進,HPE AI服務方案都能跟上企業實際所需,不僅設備,台灣在地化的技術支援與本地產業習慣的服務模式都能支援,搭配HPE GreenLake服務模式,為企業帶來極具競爭力之AI as a Service ─ AI即服務轉型模式。