Ocena:

Książka stanowi kompleksowe wprowadzenie do uczenia maszynowego przy użyciu Pythona z podejściem algorytmicznym, choć cierpi z powodu licznych błędów matematycznych i mylących wyjaśnień. Chociaż obejmuje szeroki zakres algorytmów i jest szczególnie przystępna dla osób z mniej silnym zapleczem matematycznym, może frustrować bardziej zaawansowanych użytkowników lub tych, którzy szukają rygorystycznego traktowania.
Zalety:⬤ Kompleksowe omówienie różnych algorytmów uczenia maszynowego.
⬤ Skupienie się na algorytmach, a nie wyłącznie na zastosowaniach.
⬤ Przystępna dla osób o ograniczonych umiejętnościach matematycznych.
⬤ Zawiera przykłady kodu w języku Python, co jest pomocne w praktycznym zrozumieniu.
⬤ Napisany w łatwym do zrozumienia, konwersacyjnym stylu.
⬤ Dobra na kursy wprowadzające.
⬤ Zawiera wiele błędów, zarówno typograficznych, jak i matematycznych.
⬤ Niektóre wyjaśnienia są mylące lub niejasne.
⬤ Niektóre sekcje mogą nie zapewniać wystarczającej głębi lub szczegółowości.
⬤ Zakłada pewną znajomość Pythona, brak obszernych samouczków.
⬤ Może być bardziej odpowiedni jako materiał uzupełniający niż samodzielny tekst.
(na podstawie 35 opinii czytelników)
Machine Learning: An Algorithmic Perspective, Second Edition
A Proven, Hands-On Approach for Students without a Strong Statistical Foundation.
Od czasu opublikowania bestsellerowego pierwszego wydania, nastąpiło kilka znaczących zmian w dziedzinie uczenia maszynowego, w tym coraz więcej prac nad statystyczną interpretacją algorytmów uczenia maszynowego. Niestety, studenci informatyki bez silnego zaplecza statystycznego często mają trudności z rozpoczęciem nauki w tej dziedzinie.
Usuwając ten brak, Machine Learning: An Algorithmic Perspective, Second Edition pomaga studentom zrozumieć algorytmy uczenia maszynowego. Wprowadza ich na ścieżkę prowadzącą do opanowania odpowiedniej matematyki i statystyki, a także niezbędnego programowania i eksperymentowania.
Nowości w drugim wydaniu
⬤ Dwa nowe rozdziały poświęcone głębokim sieciom przekonań i procesom gaussowskim.
⬤ Reorganizacja rozdziałów w celu zapewnienia bardziej naturalnego przepływu treści.
⬤ Rewizja materiału dotyczącego maszyn wektorów nośnych, w tym prosta implementacja do eksperymentów.
⬤ Nowy materiał na temat lasów losowych, twierdzenia o zbieżności perceptronu, metod dokładności i optymalizacji gradientu sprzężonego dla perceptronu wielowarstwowego.
⬤ Dodatkowe omówienia filtrów Kalmana i filtrów cząsteczkowych.
⬤ Ulepszony kod, w tym lepsze wykorzystanie konwencji nazewnictwa w Pythonie.
Nadaje się zarówno do kursu wprowadzającego trwającego jeden semestr, jak i bardziej zaawansowanych kursów, tekst zdecydowanie zachęca studentów do ćwiczenia z kodem. Każdy rozdział zawiera szczegółowe przykłady wraz z dalszą lekturą i problemami. Cały kod użyty do stworzenia przykładów jest dostępny na stronie internetowej autora.