NVIDIA Hopper H200

NVIDIA Hopper H200 – nowe GPU dla AI

NVIDIA, zdecydowany lider w dziedzinie technologii graficznych i sztucznej inteligencji, niedawno zaprezentowała swój najnowszy procesor graficzny (GPU) – Hopper H200. Ten zaawansowany układ jest nazwany na cześć pionierki informatyki, Grace Hopper, i stanowi znaczący krok naprzód w dziedzinie przetwarzania danych i AI. Ten innowacyjny układ, wyposażony w zaawansowaną pamięć, jest przeznaczony do obsługi ogromnych ilości danych w aplikacjach generatywnego AI oraz w wysokowydajnych obliczeniach (HPC).

Kluczowe Cechy H200: NVIDIA H200 jest pierwszym GPU oferującym pamięć HBM3e, która zapewnia szybszą i większą przestrzeń do przyspieszania generatywnego AI oraz dużych modeli językowych. H200 oferuje 141 GB pamięci przy przepustowości 4.8 terabajtów na sekundę, co stanowi niemal podwojenie pojemności i 2.4-krotnie większą przepustowość w porównaniu do poprzednika, NVIDIA A100.

Wydajność i Innowacje: Architektura NVIDIA Hopper zapewnia niezrównany skok wydajności w porównaniu do poprzednich generacji. H200 prawie podwaja prędkość wnioskowania na modelu Llama 2, który ma 70 miliardów parametrów, w porównaniu do H100. Dodatkowe ulepszenia wydajności są oczekiwane wraz z przyszłymi aktualizacjami oprogramowania.

Formy Dostępności H200: H200 będzie dostępny na płytach serwerowych NVIDIA HGX H200 w konfiguracjach cztero- i ośmiokrotnej, kompatybilnych z hardwarem i oprogramowaniem systemów HGX H100. Dostępny jest również w superchipie NVIDIA GH200 Grace Hopper z HBM3e.

Zastosowania i Współpraca: H200 może być wdrażany w każdym typie centrum danych, w tym na miejscu, w chmurze, hybrydowej i na krawędzi. Globalny ekosystem partnerów NVIDIA, w tym firmy takie jak ASRock Rack, ASUS, Dell Technologies, i inne, mogą aktualizować swoje istniejące systemy do H200. Ponadto, dostawcy usług chmurowych, tacy jak Amazon Web Services, Google Cloud, Microsoft Azure, będą wśród pierwszych, którzy wdrożą instancje oparte na H200.

Integracja z NVIDIA Grace CPU: Połączony z procesorami NVIDIA Grace za pomocą ultranowoczesnego interfejsu NVLink-C2C, H200 tworzy superchip GH200 Grace Hopper z HBM3e, zaprojektowany do obsługi ogromnych aplikacji HPC i AI.

Wsparcie Oprogramowania NVIDIA: Platforma obliczeniowa NVIDIA jest wspierana przez potężne narzędzia programistyczne, umożliwiające tworzenie i przyspieszanie aplikacji gotowych do produkcji, od AI po HPC. W skład tego wchodzi pakiet oprogramowania NVIDIA AI Enterprise dla takich zastosowań jak systemy rekomendacyjne i wnioskowanie w skali hyperskalowej.

Dostępność: NVIDIA H200 będzie dostępna od globalnych producentów systemów i dostawców usług chmurowych, począwszy od drugiego kwartału 2024 roku.

 

Na podstawie: www.techpowerup.com

Dodaj komentarz

sixteen + 17 =