Akceleratory - karty graficzne wspomagające Sztuczną Inteligencję
Akcelerator SI to klasa specjalistycznych akceleratorów sprzętowych lub systemów komputerowych zaprojektowanych w celu przyspieszenia zastosowań Artificial Intelligence, w szczególności sztucznych sieci neuronowych, wizji maszynowej i uczenia maszynowego. Typowe zastosowania obejmują algorytmy dla robotyki, Internetu rzeczy (IoT) i innych zadań wymagających dużej ilości danych lub opartych na czujnikach. Często są to konstrukcje wielordzeniowe wyposażone w rdzenie CUDA oraz Tensor i zazwyczaj skupiają się na niskoprecyzyjnych arytmetycznych, nowatorskich architekturach przepływu danych lub możliwościach przetwarzania danych w pamięci.
W naszej ofercie znajdują się nie tylko akceleratory wyposażone w standardowe PCtowe złącza PCI Express ale też specjalistyczne modele wyposażone w interfejsy Mini PCIe, M.2 czy MXM, umożliwiając tym stosowanie je w kompaktowych systemach wbudowanych i w wielu innych miejsach gdzie wymiary mają znaczenie.
Moduły MXM
Wbudowane moduły GPU MXM - oparte na wbudowanych jednostkach GPU NVIDIA - mogą zwiększyć wydajność szerokiego zakresu zastosowań, w tym przetwarzania i analizy obrazu, akceleracji obliczeń i sztucznej inteligencji (AI). Wbudowane moduły GPU MXM oferują wysoką wydajność, dużą przepustowość danych, energooszczędność i trwałość w ograniczonej powierzchni sprzętowej, dobrze dopasowane do aplikacji o ograniczonych rozmiarach, wadze i mocy (SWaP). Wbudowane moduły graficzne MXM mogą zwiększyć szybkość reakcji systemu i jego dokładność, a także zmniejszyć opóźnienia i doskonale nadają się do zastosowań w automatyce przemysłowej, służbie zdrowia, transporcie, przemyśle lotniczym i obronnym, grach i telekomunikacji.
Karty PCI Express
Karty graficzne PCI Express - oparte na wbudowanych procesorach graficznych NVIDIA - mogą zwiększyć wydajność szerokiego zakresu zastosowań, w tym przetwarzania i analizy obrazu, akceleracji obliczeń i sztucznej inteligencji (AI). Karty graficzne ADLINK z magistralą PCI Express Graphics oferują wysoką wydajność, dużą przepustowość danych i energooszczędność przy ograniczonej powierzchni zajmowanej przez sprzęt. Karty graficzne PCI Express łączą się poprzez wspólny interfejs i są łatwe do zintegrowania i użycia w celu zwiększenia szybkości i dokładności systemu.
GPU, VPU czy FPGA?
GPU - Graphics Processing Unit - Równoległa architektura układów GPU sprawia, że są one idealne do akceleracji głębokiego nauczania (Deep Learning). Firma Nvidia zainwestowała znaczne środki w rozwój narzędzi umożliwiających głębokie uczenie się i wnioskowanie na swoich rdzeniach CUDA (Compute Unified Device Architecture). Popularna ploatforma TensorFlow firmy Google jest ukierunkowana na procesory graficzne Nvidia obsługujące CUDA. Niektóre układy GPU posiadają tysiące rdzeni przetwarzających i są idealne do wykonywania wymagających obliczeniowo zadań, takich jak autonomiczne sterowanie pojazdami, a także do wdrażania sieci szkoleniowych na mniej wydajnym sprzęcie. Jeśli chodzi o zużycie energii, GPU plasuje się dosyć wysoko. Przykładowo RTX 2080 wymaga 225W, natomiast Jetson TX2 zużywa do 15W.
VPU - Vision Processing Unit - Są rodzajem układu SoC przeznaczonym do pozyskiwania i interpretacji informacji wizualnych. Są one przeznaczone do zastosowań mobilnych i zoptymalizowane pod kątem małych rozmiarów i wydajności energetycznej. Intel® Movidius™ Myriad™ 2 VPU jest tego doskonałym przykładem. Może on współpracować z czujnikiem obrazu CMOS (CIS), wstępnie przetwarzać przechwycone dane obrazowe, a następnie przekazywać uzyskane obrazy przez przeszkoloną sieć neuronową i wyświetlać wyniki przy zużyciu mniej niż 1 W energii. VPU są doskonałe do zastosowań wbudowanych. Choć są mniej wydajne niż procesory graficzne, ich niewielkie rozmiary i wydajność energetyczna pozwalają na projektowanie ich w wyjątkowo małych pakietach.
FPGA - Field-Programmable Gate Array - są szeroko stosowane w całym przemyśle maszyn używanych. Większość kamer wizyjnych i kart akwizycji obrazu jest oparta na FPGA. FPGA stanowią centralny element pomiędzy elastycznością i programowalnością oprogramowania działającego na procesorze ogólnego przeznaczenia a szybkością i wydajnością energetyczną niestandardowo zaprojektowanego układu zintegrowanego specyficznego dla aplikacji (ASIC).