Ocena:
Obecnie brak opinii czytelników. Ocena opiera się na 51 głosach.
Transformers for Natural Language Processing and Computer Vision - Third Edition: Explore Generative AI and Large Language Models with Hugging Face, C
Kompletny przewodnik po LLM, od architektur, wstępnego szkolenia i dostrajania po Retrieval Augmented Generation (RAG), multimodalną generatywną sztuczną inteligencję, zagrożenia i implementacje z ChatGPT Plus z GPT-4, Hugging Face i Vertex AI.
Kluczowe funkcje:
- Porównanie i zestawienie ze sobą ponad 20 modeli (w tym GPT-4, BERT i Llama 2) oraz wielu platform i bibliotek w celu znalezienia odpowiedniego rozwiązania dla danego projektu.
- Zastosowanie RAG z LLM przy użyciu niestandardowych tekstów i osadzeń
- Ograniczenie ryzyka związanego z LLM, takiego jak halucynacje, przy użyciu modeli moderacji i baz wiedzy.
- Zakup książki w wersji drukowanej lub Kindle obejmuje bezpłatny eBook w formacie PDF.
Opis książki:
Transformers for Natural Language Processing and Computer Vision, Third Edition, bada architektury dużych modeli językowych (LLM), aplikacje i różne platformy (Hugging Face, OpenAI i Google Vertex AI) wykorzystywane do przetwarzania języka naturalnego i wizji komputerowej. Książka prowadzi przez różne architektury transformatorów do najnowszych modeli fundamentalnych i generatywnej sztucznej inteligencji. Będziesz wstępnie trenować i dostrajać LLM oraz pracować nad różnymi przypadkami użycia, od podsumowań po wdrażanie systemów odpowiadających na pytania z technikami wyszukiwania opartymi na osadzaniu. Poznasz również zagrożenia związane z LLM, od halucynacji i zapamiętywania po prywatność, a także dowiesz się, jak złagodzić takie ryzyko za pomocą modeli moderacji z regułami i bazami wiedzy. Zaimplementujesz Retrieval Augmented Generation z LLM, aby poprawić dokładność swoich modeli i uzyskać większą kontrolę nad wynikami LLM. Zanurz się w generatywnych transformatorach wizyjnych i architekturach modeli multimodalnych i twórz aplikacje, takie jak klasyfikatory obrazów i wideo na tekst. Idź dalej, łącząc różne modele, platformy i ucząc się o replikacji agentów AI. Ta książka zapewnia zrozumienie architektur transformatorów, wstępnego szkolenia, dostrajania, przypadków użycia LLM i najlepszych praktyk.
Czego się nauczysz:
- Podział i zrozumienie architektury oryginalnych modeli Transformer, BERT, GPT, T5, PaLM, ViT, CLIP i DALL-E.
- Dostrajać modele BERT, GPT i PaLM 2
- Zapoznanie się z różnymi tokenizatorami i najlepszymi praktykami wstępnego przetwarzania danych językowych
- Wstępne trenowanie modelu RoBERTa od podstaw
- Wdrożenie generowania rozszerzonego wyszukiwania i baz reguł w celu złagodzenia halucynacji
- Wizualizacja aktywności modelu transformatora w celu uzyskania głębszego wglądu przy użyciu BertViz, LIME i SHAP
- Dogłębne zapoznanie się z transformatorami wizyjnymi za pomocą CLIP, DALL-E 2, DALL-E 3 i GPT-4V.
Dla kogo jest ta książka:
Ta książka jest idealna dla inżynierów NLP i CV, programistów, naukowców zajmujących się danymi, inżynierów uczenia maszynowego i liderów technicznych, którzy chcą rozwijać swoje umiejętności LLM i generatywnej sztucznej inteligencji lub odkrywać najnowsze trendy w tej dziedzinie. Znajomość języka Python i koncepcji uczenia maszynowego jest wymagana do pełnego zrozumienia przypadków użycia i przykładów kodu. Jednak dzięki przykładom wykorzystującym interfejsy użytkownika LLM, inżynierię podpowiedzi, tworzenie modeli bez użycia kodu, ta książka jest świetna dla każdego, kto jest ciekawy rewolucji AI.
© Book1 Group - wszelkie prawa zastrzeżone.
Zawartość tej strony nie może być kopiowana ani wykorzystywana w całości lub w części bez pisemnej zgody właściciela.
Ostatnia aktualizacja: 2024.11.13 21:45 (GMT)