Ocena:
Książka przedstawia się jako źródło wprowadzające do zrozumienia głębokiego uczenia się, z naciskiem na udostępnienie złożonych koncepcji początkującym. Otrzymała jednak mieszane recenzje dotyczące jej przejrzystości, błędów w przykładach kodowania i ogólnej organizacji.
Zalety:⬤ Przejrzyste i zrozumiałe wyjaśnienia koncepcji głębokiego uczenia.
⬤ Praktyczne podejście do implementacji sieci neuronowych.
⬤ Przystępna dla początkujących bez silnego zaplecza matematycznego.
⬤ Dobra podstawowa wiedza na temat głębokiego uczenia w stylu stopniowego budowania.
⬤ Wciągająca narracja i analogie, które pomagają zdemistyfikować złożone idee.
⬤ Znaczące błędy w kodowaniu, które mogą zmylić początkujących użytkowników.
⬤ Niektóre rozdziały są mylące lub źle skonstruowane.
⬤ Zawiera błędy typograficzne i przykłady, które wydają się nierealistyczne lub zmyślone, co prowadzi do potencjalnego niedopasowania do praktycznych zastosowań.
⬤ Niektórym krytycznym sekcjom brakuje dopracowania, przez co czytelnicy szukają dodatkowych źródeł w celu uzyskania wyjaśnień.
(na podstawie 35 opinii czytelników)
Grokking Deep Learning
Podsumowanie
Grokking Deep Learning uczy budowania sieci neuronowych głębokiego uczenia się od podstaw W swoim wciągającym stylu, doświadczony ekspert w dziedzinie głębokiego uczenia się, Andrew Trask, pokazuje naukę pod maską, dzięki czemu można zagłębić się w każdy szczegół szkolenia sieci neuronowych.
Zakup książki drukowanej obejmuje bezpłatny eBook w formatach PDF, Kindle i ePub od Manning Publications.
O technologii
Głębokie uczenie, gałąź sztucznej inteligencji, uczy komputery uczenia się za pomocą sieci neuronowych, technologii inspirowanej ludzkim mózgiem. Tłumaczenie tekstu online, autonomiczne samochody, spersonalizowane rekomendacje produktów i wirtualni asystenci głosowi to tylko niektóre z ekscytujących nowoczesnych osiągnięć możliwych dzięki głębokiemu uczeniu.
O książce
Grokking Deep Learning uczy budowania sieci neuronowych głębokiego uczenia się od podstaw W swoim wciągającym stylu, doświadczony ekspert w dziedzinie głębokiego uczenia się, Andrew Trask, pokazuje ci naukę pod maską, dzięki czemu możesz samodzielnie zagłębić się w każdy szczegół szkolenia sieci neuronowych. Korzystając wyłącznie z Pythona i jego biblioteki wspierającej matematykę, NumPy, będziesz trenować własne sieci neuronowe, aby widzieć i rozumieć obrazy, tłumaczyć tekst na różne języki, a nawet pisać jak Szekspir Kiedy skończysz, będziesz w pełni przygotowany do przejścia do opanowania frameworków głębokiego uczenia się.
Co jest w środku
⬤ Nauka stojąca za głębokim uczeniem.
⬤ Budowanie i trenowanie własnych sieci neuronowych.
⬤ Koncepcje prywatności, w tym uczenie federacyjne.
⬤ Wskazówki dotyczące kontynuowania nauki uczenia głębokiego.
O czytelniku
Dla czytelników z matematyką na poziomie szkoły średniej i średnimi umiejętnościami programowania.
O autorze
Andrew Trask jest doktorantem na Uniwersytecie Oksfordzkim i naukowcem w DeepMind. Wcześniej Andrew był badaczem i menedżerem produktu analitycznego w Digital Reasoning, gdzie trenował największą na świecie sztuczną sieć neuronową i pomagał kierować planem analitycznym dla platformy kognitywnej Synthesys.
Spis treści
⬤ Wprowadzenie do uczenia głębokiego: dlaczego warto się go uczyć.
⬤ Podstawowe pojęcia: jak uczą się maszyny?
⬤ Wprowadzenie do przewidywania neuronowego: propagacja do przodu.
⬤ Wprowadzenie do uczenia neuronowego: schodzenie gradientowe.
⬤ Uczenie się wielu wag naraz: uogólnianie schodzenia gradientowego.
⬤ Budowanie pierwszej głębokiej sieci neuronowej: wprowadzenie do propagacji wstecznej.
⬤ Jak wyobrazić sobie sieci neuronowe: w głowie i na papierze.
⬤ Uczenie się sygnału i ignorowanie szumu: wprowadzenie do regularyzacji i grupowania.
⬤ Modelowanie prawdopodobieństwa i nieliniowości: funkcje aktywacji.
⬤ Sieci neuronowe uczące się o krawędziach i narożnikach: wprowadzenie do konwolucyjnych sieci neuronowych.
⬤ Sieci neuronowe, które rozumieją język: król - mężczyzna + kobieta ==?
⬤ Sieci neuronowe, które piszą jak Szekspir: warstwy rekurencyjne dla danych o zmiennej długości.
⬤ Wprowadzenie do automatycznej optymalizacji: zbudujmy strukturę głębokiego uczenia.
⬤ Nauka pisania jak Szekspir: długa pamięć krótkotrwała.
⬤ Głębokie uczenie na niewidocznych danych: wprowadzenie uczenia federacyjnego.
⬤ Dokąd zmierzamy: krótki przewodnik.
© Book1 Group - wszelkie prawa zastrzeżone.
Zawartość tej strony nie może być kopiowana ani wykorzystywana w całości lub w części bez pisemnej zgody właściciela.
Ostatnia aktualizacja: 2024.11.13 21:45 (GMT)