
Optymalizacja to dziedzina badań, która ma ogromne znaczenie w różnych obszarach nauki i inżynierii.
Wśród metod, które są częścią różnych programów do rozwiązywania modeli optymalizacyjnych, są metody projekcyjne. Właściwości zbieżności tych metod są gwarantowane w pewnych warunkach wypukłości.
Wadą jest wysoki koszt obliczeniowy wykonania każdej iteracji projekcji, a także niepewność, gdy problem traci wypukłość. Jednym ze sposobów na uniknięcie tych trudności jest wykorzystanie narzędzi geometrii riemannowskiej. Jedną z jej zalet jest to, że problemy ograniczone mogą być traktowane jako nieograniczone, a funkcje niewypukłe mogą być przekształcane w wypukłe.
Niniejsza książka rozszerza właściwości zbieżności metody gradientowej do minimalizacji funkcji quasi-wypukłych na tych rozmaitościach, a tym samym poszerza pole zastosowań tej metody. Materiał jest przeznaczony dla naukowców, praktyków i studentów matematyki stosowanej, którzy chcą odpowiednio konstruować, uczyć i uczyć się nowych skutecznych metod optymalizacji.