Common Information, Noise Stability, and Their Extensions
Wspólna informacja mierzy ilość pasujących zmiennych w dwóch lub więcej źródłach informacji. Jest ona wszechobecna w teorii informacji i dziedzinach pokrewnych, takich jak informatyka teoretyczna i prawdopodobieństwo dyskretne.
Ponieważ jednak istnieje wiele pojęć wspólnej informacji, brakuje jednolitego zrozumienia głębokich powiązań między nimi. W niniejszej monografii autorzy wypełniają tę lukę, wykorzystując niewielki zestaw technik matematycznych, które mają zastosowanie w pozornie różnych problemach. W części I czytelnik zapoznaje się z zadaniami operacyjnymi i właściwościami związanymi z dwiema głównymi miarami wspólnej informacji, a mianowicie miarami Wynera i Gácsa-Körnera-Witsenhausena (GKW).
W kolejnych dwóch częściach autorzy przyjrzą się bliżej każdej z nich. W części II omawiają rozszerzenia wspólnej informacji Wynera z perspektywy rozproszonej symulacji źródłowej, w tym wspólną informację Rényi.
W części III w centrum uwagi znajduje się wspólna informacja GKW. Po ustanowieniu podstaw, autorzy płynnie przechodzą do omówienia ich powiązań z różnymi przypuszczeniami w teorii informacji i prawdopodobieństwie dyskretnym.
Niniejsza monografia zapewnia studentom i badaczom teorii informacji kompleksowe źródło zrozumienia informacji wspólnej i wskazuje drogę do stworzenia ujednoliconego zestawu technik mających zastosowanie w szerokim zakresie problemów.
© Book1 Group - wszelkie prawa zastrzeżone.
Zawartość tej strony nie może być kopiowana ani wykorzystywana w całości lub w części bez pisemnej zgody właściciela.
Ostatnia aktualizacja: 2024.11.13 21:45 (GMT)