Ocena:
Obecnie brak opinii czytelników. Ocena opiera się na 2 głosach.
Generative Adversarial Networks for Image-To-Image Translation
Generative Adversarial Networks (GAN) zapoczątkowały rewolucję w głębokim uczeniu się, a dziś GAN jest jednym z najczęściej badanych tematów w sztucznej inteligencji. Książka Generative Adversarial Networks for Image-to-Image Translation zawiera kompleksowy przegląd koncepcji GAN (Generative Adversarial Network), począwszy od oryginalnej sieci GAN po różne systemy oparte na GAN, takie jak Deep Convolutional GAN (DCGAN), Conditional GAN (cGAN), StackGAN, Wasserstein GAN (WGAN), cykliczne GAN i wiele innych.
Książka dostarcza również czytelnikom szczegółowych aplikacji ze świata rzeczywistego i typowych projektów zbudowanych przy użyciu systemu GAN z odpowiednim kodem Pythona. Typowy system GAN składa się z dwóch sieci neuronowych, tj. generatora i dyskryminatora.
Obie te sieci rywalizują ze sobą, podobnie jak w teorii gier. Generator jest odpowiedzialny za generowanie wysokiej jakości obrazów, które powinny przypominać prawdę, a dyskryminator jest odpowiedzialny za identyfikację, czy wygenerowany obraz jest prawdziwym obrazem, czy fałszywym obrazem wygenerowanym przez generator.
Będąc jedną z nienadzorowanych architektur opartych na uczeniu, GAN jest preferowaną metodą w przypadkach, gdy oznaczone dane nie są dostępne. GAN może generować wysokiej jakości obrazy, obrazy ludzkich twarzy opracowane z kilku szkiców, konwertować obrazy z jednej domeny na inną, ulepszać obrazy, łączyć obraz ze stylem innego obrazu, zmieniać wygląd obrazu ludzkiej twarzy, aby pokazać efekty postępu starzenia, generować obrazy z tekstu i wiele innych zastosowań.
GAN jest pomocny w generowaniu wyników bardzo zbliżonych do wyników generowanych przez ludzi w ułamku sekundy i może skutecznie tworzyć wysokiej jakości muzykę, mowę i obrazy.
© Book1 Group - wszelkie prawa zastrzeżone.
Zawartość tej strony nie może być kopiowana ani wykorzystywana w całości lub w części bez pisemnej zgody właściciela.
Ostatnia aktualizacja: 2024.11.13 21:45 (GMT)