• COMPAREX Blog

    Właściwości sprzętu

11.01.2018 | Wojciech Chmielewski

Zapoznaj się z porównaniem NVLink i PCI-E z GPU NVIDIA Tesla P100 na serwerach IBM OpenPOWER


Wprowadzenie

Nowe procesory graficzne NVIDIA Tesla P100 są dostępne zarówno w wersji PCI-Express, jak i NVLink. Jak porównać te dwa typy połączeń? Niniejszy artykuł zawiera porównanie NVLink vs PCI-E oraz odkrywa zalety nowej technologii NVLink firmy NVIDIA.

Podstawowe uwagi podczas porównywania NVLink i PCI-E

W systemach z procesorami x86 łączność z GPU odbywa się tylko za pośrednictwem złącza PCI-Express (chociaż procesory GPU łączą się ze sobą poprzez NVLink). W systemach z procesorami POWER8 łączność z GPU odbywa się przez złącze NVLink (procesory GPU łączą się ze sobą także poprzez NVLink).

Niemniej jednak charakterystyka wydajności samego GPU nie różni się. Sam procesor graficzny Tesla P100 będzie działał na tym samym poziomie. To przepływ danych i całkowita wydajność systemu determinują ostateczną wydajność rozwiązania. Mając to na uwadze, porównamy ich wydajność.

Tesla P100 z NVLink na OpenPOWER

Połączenia NVLink w procesorach graficznych Tesla P100 zapewniają teoretyczną przepustowość na poziomie 80GB/s (160GB/s - dwukierunkową). Jednak te linki składają się z kilku „klocków” , które można podzielić w celu połączenia z innymi urządzeniami. Na przykład jeden układ GPU może dedykować 40GB/s dla łącza do procesora (CPU) i 40GB/s dla łącza do pobliskiego procesora graficznego GPU.

Niemniej jednak charakterystyka wydajności samego GPU nie różni się. Sam procesor graficzny Tesla P100 będzie działał na tym samym poziomie. To przepływ danych i całkowita wydajność systemu determinują ostateczną wydajność rozwiązania.

Device <<>> Device (wydajność NVLink)

Test wydajności został przeprowadzony w systemie z czterema układami GPU Tesla. Na każdym GPU dostępna przepustowość 80GB/s została podzielona na pół. Jedno łącze prowadzi do CPU POWER8, a jedno łącze do sąsiadującego GPU P100 (patrz schemat poniżej).
Jak pokazują wyniki, każde 40GB/s Tesla P100 NVLink to w praktyce ~ 35GB/s. Komunikacja między procesorami graficznymi na zdalnym CPU to przepustowość rzędu ~ 20GB/s. Opóźnienie między układami GPU wynosi 8 ~ 16 mikrosekund. Wyniki zostały zebrane na serwerze IBM OpenPOWER w maksymalnej konfiguracji z 4 procesorami graficznymi Tesla P100 NVLink.

Poniżej przedstawiona jest architektura takiego serwera - diagram blokowy serwera.

Device <<>>> Device (wydajność PCI-Express)

Podobny test, uruchamiany na GPU podłączonych przez PCI-Express, będzie miał następującą wydajność: opóźnienia między GPU są prawie takie same (chociaż w przypadku połączenia do GPU na zdalnych CPU występuje większe opóźnienie), jednak przepustowość jest znacznie większa na korzyść NVLink niż PCI-E (2-3x większa). W tym wypadku widać ogromną przewagę NVLink zwłaszcza dla aplikacji, które przesyłają dane pomiędzy GPU.

Jak wykorzystać systemy z połączeniami NVLink Host-to-Device?

Na dzień pisania tego artykułu, na rynku dostępny jest tylko jeden serwer z łącznością NVLink (zarówno Host-to-Device oraz Device-to-Device). To serwer S822LC wykorzystujący procesory POWER8 IBM i innowacje z fundacji OpenPOWER (w tym NVIDIA i Mellanox). Zadebiutował na rynku jesienią 2016 roku. Skontaktuj się z nami, aby dowiedzieć się więcej lub przeczytaj o tym serwerze OpenPOWER.

Kontakt

Chcesz wiedzieć więcej? Wyślij swoje zapytanie, nasz ekspert skontaktuje się z Tobą.

Bądź na bieżąco

  Aby regularnie otrzymywać aktualne informacje i artykuły od firmy COMPAREX, kliknij poniżej:
  Bądź z nami w LinkedIn

Share this Article