Głębokie uczenie dla programistów z Fastai i Pytorch: Aplikacje AI bez doktoratu

Ocena:   (4,7 na 5)

Głębokie uczenie dla programistów z Fastai i Pytorch: Aplikacje AI bez doktoratu (Jeremy Howard)

Opinie czytelników

Podsumowanie:

Książka „Deep Learning for Coders” autorstwa Jeremy'ego Howarda i Sylvaina Guggera jest powszechnie uważana za doskonałe źródło praktycznej nauki uczenia głębokiego, szczególnie dla osób z pewnym doświadczeniem w programowaniu. Charakteryzuje się praktycznym, odgórnym podejściem, które pozwala czytelnikom bezpośrednio angażować się w aplikacje i projekty, często przy użyciu biblioteki Fastai w połączeniu z PyTorch. Została jednak skrytykowana za to, że jest potencjalnie myląca dla absolutnie początkujących i zawiera przestarzałe przykłady kodu, które mogą powodować frustrację.

Zalety:

Dobrze skonstruowana do praktycznej nauki, doskonałe podejście praktyczne, odpowiednia dla czytelników z doświadczeniem w programowaniu, bogata w przykłady notatnika Jupyter, dobrze sformatowana dla czytelności na Kindle, obejmuje odpowiednie i nowoczesne praktyki głębokiego uczenia się, wspierającą społeczność i zasoby dostępne na GitHub.

Wady:

Może nie być odpowiedni dla zupełnie początkujących bez wcześniejszej wiedzy, niektórzy czytelnicy uważają, że odgórna metoda nauczania jest myląca, kilka komentarzy na temat przestarzałego kodu prowadzącego do błędów, nie jest idealny dla osób z wcześniejszą wiedzą na temat głębokiego uczenia się, szukających zaawansowanego materiału, potencjalne problemy z kompleksową edycją i spójnością.

(na podstawie 52 opinii czytelników)

Oryginalny tytuł:

Deep Learning for Coders with Fastai and Pytorch: AI Applications Without a PhD

Zawartość książki:

Uczenie głębokie jest często postrzegane jako wyłączna domena doktorów matematyki i dużych firm technologicznych. Jak jednak pokazuje ten praktyczny przewodnik, programiści swobodnie posługujący się Pythonem mogą osiągnąć imponujące wyniki w głębokim uczeniu się przy niewielkim doświadczeniu matematycznym, niewielkich ilościach danych i minimalnej ilości kodu. W jaki sposób? Dzięki fastai, pierwszej bibliotece zapewniającej spójny interfejs do najczęściej używanych aplikacji głębokiego uczenia.

Autorzy Jeremy Howard i Sylvain Gugger, twórcy fastai, pokazują, jak trenować model w szerokim zakresie zadań przy użyciu fastai i PyTorch. Będziesz także stopniowo zagłębiać się w teorię głębokiego uczenia się, aby uzyskać pełne zrozumienie algorytmów za kulisami.

⬤ Trenuj modele w zakresie widzenia komputerowego, przetwarzania języka naturalnego, danych tabelarycznych i filtrowania opartego na współpracy.

⬤ Poznaj najnowsze techniki głębokiego uczenia, które mają największe znaczenie w praktyce.

⬤ Zwiększ dokładność, szybkość i niezawodność dzięki zrozumieniu, jak działają modele głębokiego uczenia.

⬤ Odkryj, jak przekształcić swoje modele w aplikacje internetowe.

⬤ Zaimplementuj algorytmy głębokiego uczenia od podstaw.

⬤ Rozważ etyczne implikacje swojej pracy.

⬤ Uzyskaj wgląd w przedmowę współzałożyciela PyTorch, Soumitha Chintali.

Dodatkowe informacje o książce:

ISBN:9781492045526
Autor:
Wydawca:
Oprawa:Miękka oprawa
Rok wydania:2020
Liczba stron:350

Zakup:

Obecnie dostępne, na stanie.

Inne książki autora:

Głębokie uczenie dla programistów z Fastai i Pytorch: Aplikacje AI bez doktoratu - Deep Learning for...
Uczenie głębokie jest często postrzegane jako...
Głębokie uczenie dla programistów z Fastai i Pytorch: Aplikacje AI bez doktoratu - Deep Learning for Coders with Fastai and Pytorch: AI Applications Without a PhD
Władimir Markow i rosyjski prymitywizm: Karta awangardy - Vladimir Markov and Russian Primitivism: A...
Okrzyknięty genialnym teoretykiem, Voldemārs...
Władimir Markow i rosyjski prymitywizm: Karta awangardy - Vladimir Markov and Russian Primitivism: A Charter for the Avant-Garde

Prace autora wydały następujące wydawnictwa:

© Book1 Group - wszelkie prawa zastrzeżone.
Zawartość tej strony nie może być kopiowana ani wykorzystywana w całości lub w części bez pisemnej zgody właściciela.
Ostatnia aktualizacja: 2024.11.13 21:45 (GMT)