Kernels for Vector-Valued Functions: A Review
Metody jądrowe są jednymi z najpopularniejszych technik w uczeniu maszynowym. Z perspektywy teorii regularyzacji, zapewniają one naturalny wybór przestrzeni hipotez i funkcji regularyzacji poprzez pojęcie reprodukujących się kernelowych przestrzeni Hilberta.
Z perspektywy teorii probabilistycznej są one kluczowe w kontekście procesów gaussowskich, gdzie funkcja jądra jest znana jako funkcja kowariancji. Teoria metod jądrowych dla funkcji jednowartościowych jest już dobrze ugruntowana i rzeczywiście wykonano znaczną ilość pracy poświęconej projektowaniu i uczeniu się jąder. Niedawno wzrosło zainteresowanie metodami, które radzą sobie z wieloma wyjściami, częściowo motywowanymi przez ramy takie jak uczenie wielozadaniowe.
Zastosowania jąder dla funkcji o wartościach wektorowych obejmują sieci czujników, geostatystykę, grafikę komputerową i wiele innych. Kernels for Vector-Valued Functions: A Review analizuje różne metody projektowania lub uczenia się prawidłowych funkcji jądra dla wielu wyjść, zwracając szczególną uwagę na związek między metodami probabilistycznymi i regularyzacyjnymi.
Kernels for Vector-Valued Functions: A Review jest skierowana do badaczy zainteresowanych teorią i zastosowaniem jąder dla funkcji o wartościach wektorowych w dziedzinach takich jak statystyka, informatyka i inżynieria. Jednym z jej celów jest zapewnienie ujednoliconych ram i wspólnej terminologii dla badaczy zajmujących się uczeniem maszynowym i statystyką.
© Book1 Group - wszelkie prawa zastrzeżone.
Zawartość tej strony nie może być kopiowana ani wykorzystywana w całości lub w części bez pisemnej zgody właściciela.
Ostatnia aktualizacja: 2024.11.13 21:45 (GMT)