Ocena:
Obecnie brak opinii czytelników. Ocena opiera się na 6 głosach.
Hyperparameter Optimization in Machine Learning: Make Your Machine Learning and Deep Learning Models More Efficient
⬤ .
Rozdział 1: Hiperparametry.
Cel rozdziału: Przedstawienie, czym są hiperparametry i jak mogą wpływać na uczenie modelu. Daje również intuicję, w jaki sposób hiperparametr wpływa na ogólne algorytmy uczenia maszynowego i jaką wartość powinniśmy wybrać zgodnie ze zbiorem danych szkoleniowych. Podtematy1. Wprowadzenie do hiperparametrów. 2. Dlaczego musimy dostroić hiperparametry3. Konkretne algorytmy i ich hiperparametry4. Cheatsheet do decydowania o hiperparametrach niektórych konkretnych algorytmów.
Rozdział 2: Brute Force Hyperparameter TuningCel rozdziału: Zrozumienie powszechnie stosowanych klasycznych metod dostrajania hiperparametrów i zaimplementowanie ich od podstaw, a także wykorzystanie do tego biblioteki Scikit-Learn. Podtematy: 1. Strojenie hiperparametrów2. Wyczerpujące metody strojenia hiperparametrów3. Wyszukiwanie siatkowe4. Wyszukiwanie losowe5. Ocena modeli podczas dostrajania hiperparametrów.
Rozdział 3: Rozproszona optymalizacja hiperparametrówCel rozdziału: Obsługa większych zbiorów danych i dużej liczby hiperparametrów z ciągłymi przestrzeniami wyszukiwania przy użyciu rozproszonych algorytmów i rozproszonych metod optymalizacji hiperparametrów przy użyciu biblioteki Dask. Podtematy: 1. Dlaczego potrzebujemy rozproszonego strojenia2. Ramki danych Dask3. IncrementalSearchCV.
Rozdział 4: Sekwencyjna globalna optymalizacja oparta na modelu i jej hierarchiczne metody Cel rozdziału: Szczegółowy rozdział teoretyczny na temat metod SMBO, które wykorzystują techniki bayesowskie do optymalizacji hiperparametrów. Uczą się one na podstawie poprzedniej iteracji, w przeciwieństwie do wyszukiwania siatkowego lub losowego. Podtematy: 1. Sekwencyjna globalna optymalizacja oparta na modelu2. Podejście oparte na procesach gaussowskich3. Estymator Parzena o strukturze drzewa (TPE)
Rozdział 5: Korzystanie z HyperOptCel rozdziału: Rozdział skupiający się na bibliotece hyperopt, która implementuje algorytm TPE omówiony w poprzednim rozdziale. Celem jest wykorzystanie algorytmu TPE do optymalizacji hiperparametru i uświadomienie czytelnikowi, w jaki sposób jest on lepszy od innych metod. MongoDB zostanie użyty do zrównoleglenia ocen. Omówienie Hyperopt Scikit-Learn i Hyperas na przykładach. 1. Definiowanie funkcji celu. 2. Tworzenie przestrzeni wyszukiwania. 3. Uruchomienie HyperOpt. 4. Używanie MongoDB Trials do wykonywania równoległych ocen. 5. HyperOpt SkLearn6. Hyperas.
Rozdział 6: Generowanie hiperparametrów generatywnych adwersaryjnych sieci neuronowych (HG-cGAN) i So Forth. Cel rozdziału: Opiera się na hipotezie, w jaki sposób, w oparciu o pewne właściwości zbioru danych, można trenować sieci neuronowe na metadanych i generować hiperparametry dla nowych zbiorów danych. Podsumowuje również, w jaki sposób te nowsze metody dostrajania hiperparametrów mogą pomóc w dalszym rozwoju sztucznej inteligencji. Podtematy: 1. Generowanie metadanych2. Szkolenie HG-cGAN3. Sztuczna inteligencja i dostrajanie hiperparametrów.
© Book1 Group - wszelkie prawa zastrzeżone.
Zawartość tej strony nie może być kopiowana ani wykorzystywana w całości lub w części bez pisemnej zgody właściciela.
Ostatnia aktualizacja: 2024.11.13 21:45 (GMT)