
Kernels for Vector-Valued Functions: A Review
Metody jądrowe są jednymi z najpopularniejszych technik w uczeniu maszynowym. Z perspektywy teorii regularyzacji, zapewniają one naturalny wybór przestrzeni hipotez i funkcji regularyzacji poprzez pojęcie reprodukujących się kernelowych przestrzeni Hilberta.
Z perspektywy teorii probabilistycznej są one kluczowe w kontekście procesów gaussowskich, gdzie funkcja jądra jest znana jako funkcja kowariancji. Teoria metod jądrowych dla funkcji jednowartościowych jest już dobrze ugruntowana i rzeczywiście wykonano znaczną ilość pracy poświęconej projektowaniu i uczeniu się jąder. Niedawno wzrosło zainteresowanie metodami, które radzą sobie z wieloma wyjściami, częściowo motywowanymi przez ramy takie jak uczenie wielozadaniowe.
Zastosowania jąder dla funkcji o wartościach wektorowych obejmują sieci czujników, geostatystykę, grafikę komputerową i wiele innych. Kernels for Vector-Valued Functions: A Review analizuje różne metody projektowania lub uczenia się prawidłowych funkcji jądra dla wielu wyjść, zwracając szczególną uwagę na związek między metodami probabilistycznymi i regularyzacyjnymi.
Kernels for Vector-Valued Functions: A Review jest skierowana do badaczy zainteresowanych teorią i zastosowaniem jąder dla funkcji o wartościach wektorowych w dziedzinach takich jak statystyka, informatyka i inżynieria. Jednym z jej celów jest zapewnienie ujednoliconych ram i wspólnej terminologii dla badaczy zajmujących się uczeniem maszynowym i statystyką.