Ocena:
Obecnie brak opinii czytelników. Ocena opiera się na 2 głosach.
Approximate Bayesian Inference
Metody bayesowskie, niezwykle popularne we wnioskowaniu statystycznym, stają się również popularne w uczeniu maszynowym i sztucznej inteligencji. Estymatory bayesowskie są często implementowane za pomocą metod Monte Carlo, takich jak algorytm Metropolisa-Hastingsa czy próbnik Gibbsa.
Algorytmy te celują w dokładny rozkład potomny. Jednak wiele współczesnych modeli statystycznych jest po prostu zbyt złożonych, aby korzystać z takich metodologii. W uczeniu maszynowym ilość danych wykorzystywanych w praktyce sprawia, że metody Monte Carlo są zbyt wolne, aby były użyteczne.
Z drugiej strony, aplikacje te często nie wymagają dokładnej znajomości danych potomnych. Zmotywowało to do opracowania nowej generacji algorytmów, które są wystarczająco szybkie, aby poradzić sobie z ogromnymi zbiorami danych, ale często są ukierunkowane na przybliżenie posterioru.
W niniejszej książce zebrano 18 artykułów naukowych napisanych przez specjalistów w dziedzinie przybliżonego wnioskowania bayesowskiego, które stanowią przegląd najnowszych osiągnięć w dziedzinie tych algorytmów. Obejmuje to metody oparte na optymalizacji (takie jak przybliżenia wariacyjne) i metody symulacyjne (takie jak algorytmy ABC lub Monte Carlo).
Omówiono teoretyczne aspekty przybliżonego wnioskowania bayesowskiego, w szczególności granice PAC-Bayesa i analizę żalu. Przedstawiono również zastosowania dla trudnych problemów obliczeniowych w astrofizyce, finansach, analizie danych medycznych i wizji komputerowej.
© Book1 Group - wszelkie prawa zastrzeżone.
Zawartość tej strony nie może być kopiowana ani wykorzystywana w całości lub w części bez pisemnej zgody właściciela.
Ostatnia aktualizacja: 2024.11.13 21:45 (GMT)