Recent Advances in Testing Techniques for AI Hardware Accelerators
Szybki wzrost ilości dużych zbiorów danych pochodzących z urządzeń mobilnych, Internetu rzeczy (IoT) i urządzeń brzegowych oraz ciągłe zapotrzebowanie na większą moc obliczeniową sprawiły, że głębokie uczenie stało się kamieniem węgielnym większości dzisiejszych zastosowań sztucznej inteligencji (AI). W ostatnich latach zaobserwowano nacisk na głębokie uczenie zaimplementowane na akceleratorach AI specyficznych dla domeny, które obsługują niestandardowe hierarchie pamięci, zmienną precyzję i zoptymalizowane mnożenie macierzy. Komercyjne akceleratory sztucznej inteligencji wykazały wyższą wydajność energetyczną i śladową w porównaniu z procesorami graficznymi dla różnych zadań wnioskowania.
W niniejszej monografii omówiono przeszkody, które należy zrozumieć i przeanalizować, aby zapewnić funkcjonalną niezawodność powstających akceleratorów AI. Przedstawiono najnowsze praktyki przyjęte do testowania strukturalnego i funkcjonalnego akceleratorów, a także metodologie oceny krytyczności funkcjonalnej usterek sprzętowych w akceleratorach AI w celu skrócenia czasu testowania poprzez ukierunkowanie na usterki krytyczne pod względem funkcjonalnym.
Niniejsza monografia przedstawia najnowsze badania dotyczące wysiłków na rzecz poprawy testów i niezawodności neuromorficznych systemów obliczeniowych zbudowanych przy użyciu urządzeń pamięci nieulotnej (NVM), takich jak urządzenia typu spin-transfer-torque (STT-MRAM) i rezystancyjna pamięć RAM (ReRAM). Omówiono również odporność krzemowo-fotonicznych sieci neuronowych oraz kwestie niezawodności związane z wadami produkcyjnymi i zmiennością procesów w monolitycznych systemach obliczeniowych 3D (M3D) opartych na bliskiej pamięci.
© Book1 Group - wszelkie prawa zastrzeżone.
Zawartość tej strony nie może być kopiowana ani wykorzystywana w całości lub w części bez pisemnej zgody właściciela.
Ostatnia aktualizacja: 2024.11.13 21:45 (GMT)