Ocena:

Książka jest rygorystycznym i matematycznym podejściem do statystycznego uczenia maszynowego, odpowiednim dla osób z silnym zapleczem matematycznym. Brakuje w niej praktycznych przykładów lub treści związanych z kodowaniem, co czyni ją mniej odpowiednią dla osób poszukujących praktycznych zastosowań, szczególnie w głębokim uczeniu się. Podczas gdy niektórzy użytkownicy uważają ją za pouczającą dla teoretycznego zrozumienia, inni krytykują jej złożoność i trudności z formatami cyfrowymi.
Zalety:⬤ Dogłębne omówienie podstaw statystycznego uczenia maszynowego
⬤ dobrze nadaje się dla zaawansowanych uczniów z silnym zapleczem matematycznym
⬤ zawiera ćwiczenia do samodzielnej nauki
⬤ doceniane jako odniesienie lub uzupełnienie kursów
⬤ wysoka jakość druku fizycznego.
⬤ Brak treści praktycznych i kodowania
⬤ nie jest przyjazna dla początkujących ze względu na duży formalizm matematyczny
⬤ niejasne wyjaśnienia niektórych
⬤ problemy z czytelnością formuł matematycznych w wersji Kindle
⬤ postrzegana jako zbyt zaawansowana dla osób bez wcześniejszego doświadczenia w tej dziedzinie.
(na podstawie 10 opinii czytelników)
Foundations of Machine Learning, Second Edition
Nowe wydanie podręcznika do uczenia maszynowego na poziomie magisterskim, który koncentruje się na analizie i teorii algorytmów.
Ta książka jest ogólnym wprowadzeniem do uczenia maszynowego, które może służyć jako podręcznik dla absolwentów i odniesienie dla naukowców. Obejmuje ona podstawowe współczesne tematy uczenia maszynowego, zapewniając jednocześnie podstawy teoretyczne i narzędzia koncepcyjne potrzebne do dyskusji i uzasadnienia algorytmów. Opisuje również kilka kluczowych aspektów zastosowania tych algorytmów. Autorzy starają się przedstawić nowatorskie narzędzia teoretyczne i koncepcje, podając jednocześnie zwięzłe dowody nawet dla stosunkowo zaawansowanych tematów.
Książka Foundations of Machine Learning jest wyjątkowa pod względem skupienia się na analizie i teorii algorytmów. Pierwsze cztery rozdziały kładą teoretyczne podwaliny pod to, co następuje; kolejne rozdziały są w większości samodzielne. Poruszane tematy obejmują ramy uczenia się Probably Approximately Correct (PAC); granice uogólnienia oparte na złożoności Rademachera i wymiarze VC; maszyny wektorów nośnych (SVM); metody jądrowe; boosting; uczenie się on-line; klasyfikację wieloklasową; ranking; regresję; stabilność algorytmów; redukcję wymiarowości; uczenie się automatów i języków; oraz uczenie się ze wzmocnieniem. Każdy rozdział kończy się zestawem ćwiczeń. Dodatki zawierają dodatkowe materiały, w tym zwięzły przegląd prawdopodobieństwa.
Drugie wydanie zawiera trzy nowe rozdziały dotyczące wyboru modelu, modeli maksymalnej entropii i modeli entropii warunkowej. Nowe materiały w dodatkach obejmują główną sekcję dotyczącą dualności Fenchela, rozszerzone omówienie nierówności koncentracji oraz zupełnie nowy wpis dotyczący teorii informacji. Ponad połowa ćwiczeń jest nowa w tym wydaniu.