Wstępne trenowanie wizji i dużych modeli językowych w Pythonie: Kompleksowe techniki budowania i wdrażania modeli fundamentalnych w AWS

Ocena:   (4,1 na 5)

Wstępne trenowanie wizji i dużych modeli językowych w Pythonie: Kompleksowe techniki budowania i wdrażania modeli fundamentalnych w AWS (Emily Webber)

Opinie czytelników

Podsumowanie:

Książka „Pretrain Vision and Large Language Models in Python” autorstwa Emily Webber to kompleksowy przewodnik, który pomaga czytelnikom zrozumieć i wdrożyć modele fundamentalne przy użyciu AWS i Amazon SageMaker. Zawiera praktyczne porady, szczegółowe dyskusje i próbki kodu, które są przeznaczone zarówno dla początkujących, jak i zaawansowanych użytkowników. Zdarzają się jednak błędy w druku w niektórych egzemplarzach, a niektórzy czytelnicy uważają, że książka nie jest zbyt szczegółowa lub próbowała objąć zbyt wiele bez wchodzenia w znaczące szczegóły.

Zalety:

Wszechstronne omówienie podstawowego szkolenia i wdrażania modeli, praktyczne przykłady i próbki kodu, dobrze zorganizowane wskazówki, eksperckie spostrzeżenia autora, odpowiednie zarówno dla początkujących, jak i zaawansowanych użytkowników, aktualne źródło w obliczu rosnącego zainteresowania dużymi modelami językowymi.

Wady:

Niektóre egzemplarze miały błędy w druku (brakujące strony, odwrócone strony), może wymagać wcześniejszej wiedzy na temat głębokiego uczenia się, może brakować głębi w niektórych obszarach, niektórzy czytelnicy uważali, że jest zbyt obszerny i niechlujny, i może być czytany jak oferta sprzedaży SageMaker.

(na podstawie 15 opinii czytelników)

Oryginalny tytuł:

Pretrain Vision and Large Language Models in Python: End-to-end techniques for building and deploying foundation models on AWS

Zawartość książki:

Opanuj sztukę uczenia wizji i dużych modeli językowych dzięki podstawom koncepcyjnym i wskazówkom ekspertów branżowych. Poznaj usługi AWS i wzorce projektowe z odpowiednimi przykładami kodowania

Kluczowe cechy:

⬤ Naucz się rozwijać, trenować, dostrajać i stosować podstawowe modele ze zoptymalizowanymi, kompleksowymi potokami.

⬤ Poznaj rozproszone szkolenie na dużą skalę dla modeli i zbiorów danych z przykładami AWS i SageMaker.

⬤ Oceniaj, wdrażaj i operacjonalizuj swoje niestandardowe modele za pomocą wykrywania błędów i monitorowania potoku.

Opis książki:

Modele Foundation na zawsze zmieniły uczenie maszynowe. Od BERT do ChatGPT, od CLIP do Stable Diffusion, gdy miliardy parametrów są łączone z dużymi zbiorami danych i setkami do tysięcy procesorów graficznych, wynik jest niczym innym jak rekordowym. Zalecenia, porady i przykłady kodu zawarte w tej książce pomogą ci wstępnie wytrenować i dostroić własne modele fundamentalne od podstaw w AWS i Amazon SageMaker, jednocześnie stosując je w setkach przypadków użycia w całej organizacji.

Dzięki poradom doświadczonej ekspertki w dziedzinie AWS i uczenia maszynowego, Emily Webber, ta książka pomoże ci nauczyć się wszystkiego, czego potrzebujesz, aby przejść od pomysłu na projekt do przygotowania zbioru danych, szkolenia, oceny i wdrożenia dużych modeli językowych, wizyjnych i multimodalnych. Dzięki objaśnieniom krok po kroku podstawowych pojęć i praktycznym przykładom, przejdziesz od opanowania koncepcji wstępnego szkolenia do przygotowania zestawu danych i modelu, skonfigurowania środowiska, szkolenia, dostrajania, oceny, wdrażania i optymalizacji podstawowych modeli.

Dowiesz się, jak stosować prawa skalowania do dystrybucji modelu i zbioru danych na wielu procesorach graficznych, usuwać odchylenia, osiągać wysoką przepustowość i budować potoki wdrażania.

Pod koniec tej książki będziesz dobrze przygotowany do rozpoczęcia własnego projektu wstępnego szkolenia i dostrajania podstawowych modeli przyszłości.

Czego się nauczysz:

⬤ Znajdować odpowiednie przypadki użycia i zestawy danych do wstępnego szkolenia i dostrajania.

⬤ Przygotować się do szkolenia na dużą skalę z wykorzystaniem niestandardowych akceleratorów i układów GPU.

⬤ Konfigurować środowiska w AWS i SageMaker, aby zmaksymalizować wydajność.

⬤ Wybór hiperparametrów w oparciu o model i ograniczenia.

⬤ Dystrybuuj swój model i zestaw danych przy użyciu wielu rodzajów równoległości.

⬤ Unikanie pułapek związanych z restartami zadań, przerywanymi kontrolami kondycji i nie tylko.

⬤ Oceniaj swój model dzięki ilościowym i jakościowym spostrzeżeniom.

⬤ Wdrażaj swoje modele dzięki ulepszeniom środowiska uruchomieniowego i potokom monitorowania.

Dla kogo jest ta książka:

Jeśli jesteś badaczem uczenia maszynowego lub entuzjastą, który chce rozpocząć projekt modelowania fundamentów, ta książka jest dla Ciebie. Z tej książki skorzystają naukowcy, analitycy danych, inżynierowie uczenia maszynowego, architekci rozwiązań, menedżerowie produktów i studenci. Niezbędna jest znajomość języka Python na poziomie średniozaawansowanym, a także wstępne koncepcje przetwarzania w chmurze. Konieczne jest silne zrozumienie podstaw głębokiego uczenia się, podczas gdy zaawansowane tematy zostaną wyjaśnione. Treść obejmuje zaawansowane techniki uczenia maszynowego i chmury, wyjaśniając je w praktyczny, łatwy do zrozumienia sposób.

Dodatkowe informacje o książce:

ISBN:9781804618257
Autor:
Wydawca:
Język:angielski
Oprawa:Miękka oprawa

Zakup:

Obecnie dostępne, na stanie.

Inne książki autora:

Budowanie skutecznych społeczności praktyków - Building Successful Communities of Practice
Łączenie się z innymi ludźmi, znajdowanie poczucia...
Budowanie skutecznych społeczności praktyków - Building Successful Communities of Practice
Wstępne trenowanie wizji i dużych modeli językowych w Pythonie: Kompleksowe techniki budowania i...
Opanuj sztukę uczenia wizji i dużych modeli...
Wstępne trenowanie wizji i dużych modeli językowych w Pythonie: Kompleksowe techniki budowania i wdrażania modeli fundamentalnych w AWS - Pretrain Vision and Large Language Models in Python: End-to-end techniques for building and deploying foundation models on AWS

Prace autora wydały następujące wydawnictwa:

© Book1 Group - wszelkie prawa zastrzeżone.
Zawartość tej strony nie może być kopiowana ani wykorzystywana w całości lub w części bez pisemnej zgody właściciela.
Ostatnia aktualizacja: 2024.11.13 21:45 (GMT)