Ocena:
Książka służy jako praktyczne odniesienie dla osób posiadających pewną podstawową wiedzę z zakresu nauki o danych i uczenia maszynowego, dostarczając zwięzłych przykładów kodu i dokładnego omówienia kluczowych etapów projektu. Cierpi jednak na problemy produkcyjne i brakuje jej głębi w treściach akademickich.
Zalety:⬤ Doskonały towarzysz dla osób z pewną podstawową wiedzą z zakresu nauki o danych i Pythona.
⬤ Skupia się na praktycznych implikacjach i jasnych, zwięzłych przykładach, a nie na gęstej treści akademickiej.
⬤ Dobrze podzielone tematy pozwalają na łatwe odniesienie.
⬤ Obejmuje różnorodne techniki ML i wprowadza najnowsze biblioteki, takie jak Yellowbrick.
⬤ Lekki i przenośny dla szybkiego odniesienia.
⬤ Nie uczy od podstaw; nie nadaje się dla początkujących.
⬤ Brak omówienia głębokiego uczenia i niektórych nowoczesnych bibliotek.
⬤ Problemy z jakością produkcji, nieczytelne wykresy i problemy z oprawą.
⬤ Niektórzy recenzenci stwierdzili, że zbytnio koncentruje się na kodzie bez wystarczającej teorii matematycznej.
(na podstawie 13 opinii czytelników)
Machine Learning Pocket Reference: Working with Structured Data in Python
Dzięki szczegółowym notatkom, tabelom i przykładom, to poręczne odniesienie pomoże ci poruszać się po podstawach ustrukturyzowanego uczenia maszynowego. Autor Matt Harrison dostarcza cenny przewodnik, który można wykorzystać jako dodatkowe wsparcie podczas szkolenia i jako wygodne źródło informacji podczas nurkowania w następnym projekcie uczenia maszynowego.
Idealna dla programistów, analityków danych i inżynierów sztucznej inteligencji, książka ta zawiera przegląd procesu uczenia maszynowego i prowadzi przez klasyfikację za pomocą ustrukturyzowanych danych. Poznasz również metody grupowania, przewidywania wartości ciągłej (regresji) i zmniejszania wymiarowości.
Ten kieszonkowy przewodnik zawiera następujące sekcje
⬤ Klasyfikacja przy użyciu zestawu danych Titanic.
⬤ Czyszczenie danych i radzenie sobie z brakującymi danymi.
⬤ Eksploracyjną analizę danych.
⬤ Wspólne etapy przetwarzania wstępnego z wykorzystaniem przykładowych danych.
⬤ Wybór cech przydatnych dla modelu.
⬤ Wybór modelu.
⬤ Metryki i ocena klasyfikacji.
⬤ Przykłady regresji z wykorzystaniem k-najbliższego sąsiada, drzew decyzyjnych, boostingu i innych.
⬤ Mierniki do oceny regresji.
⬤ Klasteryzacja.
⬤ Redukcja wymiarowości.
⬤ Potoki uczenia się Scikit.
© Book1 Group - wszelkie prawa zastrzeżone.
Zawartość tej strony nie może być kopiowana ani wykorzystywana w całości lub w części bez pisemnej zgody właściciela.
Ostatnia aktualizacja: 2024.11.13 21:45 (GMT)