
Common Information, Noise Stability, and Their Extensions
Wspólna informacja mierzy ilość pasujących zmiennych w dwóch lub więcej źródłach informacji. Jest ona wszechobecna w teorii informacji i dziedzinach pokrewnych, takich jak informatyka teoretyczna i prawdopodobieństwo dyskretne.
Ponieważ jednak istnieje wiele pojęć wspólnej informacji, brakuje jednolitego zrozumienia głębokich powiązań między nimi. W niniejszej monografii autorzy wypełniają tę lukę, wykorzystując niewielki zestaw technik matematycznych, które mają zastosowanie w pozornie różnych problemach. W części I czytelnik zapoznaje się z zadaniami operacyjnymi i właściwościami związanymi z dwiema głównymi miarami wspólnej informacji, a mianowicie miarami Wynera i Gácsa-Körnera-Witsenhausena (GKW).
W kolejnych dwóch częściach autorzy przyjrzą się bliżej każdej z nich. W części II omawiają rozszerzenia wspólnej informacji Wynera z perspektywy rozproszonej symulacji źródłowej, w tym wspólną informację Rényi.
W części III w centrum uwagi znajduje się wspólna informacja GKW. Po ustanowieniu podstaw, autorzy płynnie przechodzą do omówienia ich powiązań z różnymi przypuszczeniami w teorii informacji i prawdopodobieństwie dyskretnym.
Niniejsza monografia zapewnia studentom i badaczom teorii informacji kompleksowe źródło zrozumienia informacji wspólnej i wskazuje drogę do stworzenia ujednoliconego zestawu technik mających zastosowanie w szerokim zakresie problemów.