Dell bemutatja AI infrastruktúráját és folyadékhűtéses szervereit az SC24-en
Dell egy sor új terméket és szolgáltatást jelentett be, amelyek célja, hogy kezeljék a vállalatok generatív AI és LLM-ek alkalmazásának nehézségeit. Az International Conference for High Performance Computing, Networking, Storage, and Analysis rendezvényen, amelyet november 17. és 22. között tartanak Atlantában, Varun Chhabra, a Dell Infrastruktúra és Telekommunikációs Termékmarketingért felelős alelnöke hangsúlyozta, hogy az AI elfogadását leginkább a data quality, a költségek, az energiaigény és a fenntarthatósági aggályok akadályozzák.
„A vállalatok az AI-t azért keresik, hogy versenyképesek maradjanak a digitális tájban, de a saját adataikat kell kihasználniuk a megkülönböztetés érdekében” – mondta Dave Vellante, a theCUBE Research vezető elemzője. „Látható, hogy egyre nagyobb az érdeklődés a Dell AI infrastruktúrája, megoldásai és szolgáltatásai iránt, amelyek segíthetnek az ügyfeleknek az adataik előkészítésében, a feladatok automatizálásában és a folyamatok átalakításában.”
Új szervertermékek az AI munkaterhelésekhez
A Dell három új szerverterméket jelentett be: a PowerEdge XE7740 és PowerEdge XE9685L modelleket, valamint az Integrated Rack 5000 (IR5000) sorozat frissítéseit. A PowerEdge XE7740, amely Xeon 6 processzorokat használ, alkalmas az inferenciára és a finomhangolásra. Nyolc elülső PCIe slotja lehetővé teszi a nagysebességű hálózati kapcsolatok létrehozását a GPU-k közötti teljesítmény érdekében.
„Ez valószínűleg a legjobb platform az üzleti alkalmazás megkezdéséhez” – mondta Chhabra. A PowerEdge XE9685L akár 96 NVIDIA Tensor Core H200 vagy B200 GPU-t is képes kezelni egy racken, amely az AI képzési igényeinek magas sűrűségű számítási igényeit szolgálja ki.
Újdonság a Dell Data Lakehouse terén
A konferencián bejelentették, hogy a Dell Data Lakehouse mostantól támogatja az egységes hozzáférési irányítást a Trino lekérdező motor és az Apache Spark feldolgozó rendszer között. „A Dell elvégzi a házi feladatokat és a munkát a leggyakoribb ökoszisztéma lehetőségek tesztelésével és validálásával az AI munkaterhelésekhez” – mondta Chhabra.
Dell és NVIDIA partnersége az AI infrastruktúrára összpontosít
Az AI infrastruktúra terén Chhabra elmondta, hogy a Dell elkötelezett az AI Factory optimalizálása mellett, kihasználva az NVIDIA hardverét. A szuperkomputációs eseményen a Dell bejelentette, hogy az év végéig támogatni fogják az NVIDIA Tensor Core GPU-kat, beleértve a H200 SXM felhő GPU-kat.
Új szolgáltatások a Dell portfóliójában
Végül a Dell bejelentette, hogy november 18-tól elérhetővé válnak a következő szolgáltatások:
- Dell Data Management Services az adatok kormányzásához, betekintésekhez, automatizált munkafolyamatokhoz és az AI használatának bevezetéséhez.
- Dell Services for Sustainable Data Centers tanácsadó és megvalósító szolgáltatások az adatvezérelt fenntarthatóság, energiafelhasználás, hűtés és vízmegoldások létrehozásához.
- Dell Design Services for AI Networking tanácsadói és megvalósító szolgáltatások az adatok felhasználásának optimalizálására.
- Dell Implementation Services for ServiceNow Assist az AI szolgáltatásokhoz való hozzáférés elősegítésére.
„Ahogy belépünk ebbe az új technológiai innovációs korszakba” – magyarázta Vellante, „kritikus fontosságú lesz, hogy a vállalatok folyamatosan tanuljanak és fektessenek be az innovációba, hogy kihasználhassák az AI ígéreteit.”
Érdekesség: Az AI algoritmusok képesek megjósolni a jövőbeli eseményeket a múltbeli adatok alapján, így segíthetnek a vállalatoknak a stratégiai döntések meghozatalában.
Források: Dell, theCUBE Research, Supercomputing Conference