Ocena:
Obecnie brak opinii czytelników. Ocena opiera się na 3 głosach.
Deep Reinforcement Learning in Unity: With Unity ML Toolkit
Rozdział 1: Wprowadzenie do uczenia ze wzmocnieniem.
Podtematy.
1. Modele Markowa i uczenie oparte na stanach.
2. Równania Bellmana.
3. Tworzenie symulacji Multi Armed Bandit RL.
4. Iteracja wartości i polityki.
Rozdział 2: Wyznaczanie ścieżek i nawigacja.
Podtematy.
1. Pathfinding w Unity.
2. Siatki nawigacyjne.
3. Tworzenie sztucznej inteligencji wroga.
Rozdział 3: Konfiguracja ML Agents Toolkit SDK.
Podtematy:
1. Instalacja agentów ML.
2. Konfigurowanie Brain Academy.
3. Łączenie ML Agents z Tensorflow za pomocą Jupyter Notebooks.
4. Gra z próbkami agentów uczenia maszynowego.
Rozdział 4: Zrozumienie Brain Agents i Academy.
Podtematy:
1. Zrozumienie architektury Brain.
2. Trenowanie różnych agentów za pomocą pojedynczego mózgu.
3. Ogólne hiperparametry.
Rozdział 5: Głębokie uczenie ze wzmocnieniem.
Podtematy:
1. Podstawy matematycznego uczenia maszynowego w Pythonie.
2. Uczenie głębokie z Keras i Tensorflow.
3. Algorytmy głębokiego uczenia ze wzmocnieniem.
4. Pisanie sieci neuronowej do głębokiego uczenia Q dla mózgu.
5. Dostrajanie hiperparametrów dla optymalizacji.
6. Projektowanie sieci LSTM opartej na pamięci za pomocą Keras dla Brain.
7. Budowanie agenta AI dla gry kartingowej przy użyciu wytrenowanej sieci.
Rozdział 6: Konkurencyjne sieci dla agentów AI.
Podtematy:
1. Sieć kooperacyjna i sieć kontradyktoryjna.
2. Rozszerzone uczenie ze wzmocnieniem - głębokie gradienty polityki.
3. Symulacje wykonane przy użyciu agentów Unity ML.
4. Symulacja autonomicznego agenta AI do samodzielnej jazdy.
Rozdział 7: Studium przypadku - Wyzwanie wieży z przeszkodami.
Podtematy:
1. Wyzwanie wieży z przeszkodami.
2. Unity ML Agents Challenge.
3. Rozwój badań nad Unity AI.
4. Zabawa z Open AI Gym Wrapper.
© Book1 Group - wszelkie prawa zastrzeżone.
Zawartość tej strony nie może być kopiowana ani wykorzystywana w całości lub w części bez pisemnej zgody właściciela.
Ostatnia aktualizacja: 2024.11.13 21:45 (GMT)