Entropia krzyżowa – wartość używana w teorii informacji[1]. Wykorzystywana do oceny nietrafności rozkładu względem drugiego rozkładu hipotetycznie prawdziwego[2].

Definicja edytuj

Wzór na entropię krzyżową dyskretnej zmiennej losowej   o zbiorze wartości   i zdefiniowanych na nich rozkładach prawdopodobieństw   i  [1]:

 

Interpretując entropię krzyżową jako miarę nietrafności, za   przyjmuje się rozkład traktowany jako prawdziwy, a za   rozkład oceniany[2].

Własności edytuj

Ponieważ[2]

 

entropię krzyżową można interpretować jako sumę entropii dla rzeczywistego rozkładu prawdopodobieństa   oraz miary dywergencji Kullbacka-Leiblera między   i  [2]:

 

Traktując entropię krzyżową jako nietrafność   względem   można traktować ją jako sumę nietrafności związanej z niepewnością   i nietrafności związanej z błędem   względem  [2].

Przypisy edytuj

  1. a b I.J. Good, Some terminology and notation in information theory, „Proceedings of the IEE - Part C: Monographs”, 103 (3), 1956, s. 200–204, DOI10.1049/pi-c.1956.0024.
  2. a b c d e D.F. Kerridge, Inaccuracy and Inference, „Journal of the Royal Statistical Society. Series B (Methodological)”, 37 (1), 1961, s. 184–194, DOI10.2307/2983856, JSTOR2983856.