Ocena:

Obecnie brak opinii czytelników. Ocena opiera się na 3 głosach.
Linear Algebra and Optimization with Applications to Machine Learning - Volume II: Fundamentals of Optimization Theory with Applications to Machine Le
Tom 2 stosuje koncepcje algebry liniowej przedstawione w tomie 1 do problemów optymalizacyjnych, które często występują w uczeniu maszynowym.
Książka ta łączy teorię z praktyką, nie tylko dokładnie omawiając matematyczne podstawy każdej techniki optymalizacji, ale także stosując te techniki do programowania liniowego, maszyn wektorów nośnych (SVM), analizy głównych składowych (PCA) i regresji grzbietowej. Tom 2 rozpoczyna się od omówienia wstępnych koncepcji teorii optymalizacji, takich jak przestrzenie metryczne, pochodne i technika mnożnika Lagrange'a do znajdowania ekstremów funkcji o wartości rzeczywistej.
Następnie skupiono się na szczególnym przypadku optymalizacji funkcji liniowej w regionie określonym przez ograniczenia afiniczne, a mianowicie na programowaniu liniowym. Najważniejsze z nich obejmują staranne wyprowadzenia i zastosowania algorytmu simplex, algorytmu dual-simplex oraz algorytmu primal-dual. Teoretycznym sercem tej książki jest matematycznie rygorystyczna prezentacja różnych metod optymalizacji nieliniowej, w tym między innymi przyzwoitego gradientu, warunków Karusha-Kuhna-Tuckera (KKT), dualności Lagrangian, metody mnożników o zmiennym kierunku (ADMM) i metody jądra.
Metody te są dokładnie stosowane do SVM z twardym marginesem, SVM z miękkim marginesem, PCA jądra, regresji grzbietowej, regresji lasso i regresji elastycznej sieci. Dołączone są programy Matlab implementujące te metody.