Optymalizacja hiperparametrów w uczeniu maszynowym: Uczyń swoje modele uczenia maszynowego i głębokiego uczenia bardziej wydajnymi

Ocena:   (3,3 na 5)

Optymalizacja hiperparametrów w uczeniu maszynowym: Uczyń swoje modele uczenia maszynowego i głębokiego uczenia bardziej wydajnymi (Tanay Agrawal)

Opinie czytelników

Obecnie brak opinii czytelników. Ocena opiera się na 6 głosach.

Oryginalny tytuł:

Hyperparameter Optimization in Machine Learning: Make Your Machine Learning and Deep Learning Models More Efficient

Zawartość książki:

⬤ ​.

Rozdział 1: Hiperparametry.

Cel rozdziału: Przedstawienie, czym są hiperparametry i jak mogą wpływać na uczenie modelu. Daje również intuicję, w jaki sposób hiperparametr wpływa na ogólne algorytmy uczenia maszynowego i jaką wartość powinniśmy wybrać zgodnie ze zbiorem danych szkoleniowych. Podtematy1. Wprowadzenie do hiperparametrów. 2. Dlaczego musimy dostroić hiperparametry3. Konkretne algorytmy i ich hiperparametry4. Cheatsheet do decydowania o hiperparametrach niektórych konkretnych algorytmów.

Rozdział 2: Brute Force Hyperparameter TuningCel rozdziału: Zrozumienie powszechnie stosowanych klasycznych metod dostrajania hiperparametrów i zaimplementowanie ich od podstaw, a także wykorzystanie do tego biblioteki Scikit-Learn. Podtematy: 1. Strojenie hiperparametrów2. Wyczerpujące metody strojenia hiperparametrów3. Wyszukiwanie siatkowe4. Wyszukiwanie losowe5. Ocena modeli podczas dostrajania hiperparametrów.

Rozdział 3: Rozproszona optymalizacja hiperparametrówCel rozdziału: Obsługa większych zbiorów danych i dużej liczby hiperparametrów z ciągłymi przestrzeniami wyszukiwania przy użyciu rozproszonych algorytmów i rozproszonych metod optymalizacji hiperparametrów przy użyciu biblioteki Dask. Podtematy: 1. Dlaczego potrzebujemy rozproszonego strojenia2. Ramki danych Dask3. IncrementalSearchCV.

Rozdział 4: Sekwencyjna globalna optymalizacja oparta na modelu i jej hierarchiczne metody Cel rozdziału: Szczegółowy rozdział teoretyczny na temat metod SMBO, które wykorzystują techniki bayesowskie do optymalizacji hiperparametrów. Uczą się one na podstawie poprzedniej iteracji, w przeciwieństwie do wyszukiwania siatkowego lub losowego. Podtematy: 1. Sekwencyjna globalna optymalizacja oparta na modelu2. Podejście oparte na procesach gaussowskich3. Estymator Parzena o strukturze drzewa (TPE)

Rozdział 5: Korzystanie z HyperOptCel rozdziału: Rozdział skupiający się na bibliotece hyperopt, która implementuje algorytm TPE omówiony w poprzednim rozdziale. Celem jest wykorzystanie algorytmu TPE do optymalizacji hiperparametru i uświadomienie czytelnikowi, w jaki sposób jest on lepszy od innych metod. MongoDB zostanie użyty do zrównoleglenia ocen. Omówienie Hyperopt Scikit-Learn i Hyperas na przykładach. 1. Definiowanie funkcji celu. 2. Tworzenie przestrzeni wyszukiwania. 3. Uruchomienie HyperOpt. 4. Używanie MongoDB Trials do wykonywania równoległych ocen. 5. HyperOpt SkLearn6. Hyperas.

Rozdział 6: Generowanie hiperparametrów generatywnych adwersaryjnych sieci neuronowych (HG-cGAN) i So Forth. Cel rozdziału: Opiera się na hipotezie, w jaki sposób, w oparciu o pewne właściwości zbioru danych, można trenować sieci neuronowe na metadanych i generować hiperparametry dla nowych zbiorów danych. Podsumowuje również, w jaki sposób te nowsze metody dostrajania hiperparametrów mogą pomóc w dalszym rozwoju sztucznej inteligencji. Podtematy: 1. Generowanie metadanych2. Szkolenie HG-cGAN3. Sztuczna inteligencja i dostrajanie hiperparametrów.

Dodatkowe informacje o książce:

ISBN:9781484265789
Autor:
Wydawca:
Oprawa:Miękka oprawa
Rok wydania:2020
Liczba stron:166

Zakup:

Obecnie dostępne, na stanie.

Inne książki autora:

Optymalizacja hiperparametrów w uczeniu maszynowym: Uczyń swoje modele uczenia maszynowego i...
**​.Rozdział 1: Hiperparametry.Cel rozdziału:...
Optymalizacja hiperparametrów w uczeniu maszynowym: Uczyń swoje modele uczenia maszynowego i głębokiego uczenia bardziej wydajnymi - Hyperparameter Optimization in Machine Learning: Make Your Machine Learning and Deep Learning Models More Efficient

Prace autora wydały następujące wydawnictwa:

© Book1 Group - wszelkie prawa zastrzeżone.
Zawartość tej strony nie może być kopiowana ani wykorzystywana w całości lub w części bez pisemnej zgody właściciela.
Ostatnia aktualizacja: 2024.11.13 21:45 (GMT)