Para distribuciones de probabilidad P y Q de una variable aleatoria discreta su divergencia KL se define como
En palabras, es el promedio ponderado de la diferencia logarítmica entre las probabilidades P and Q, donde el promedio se toma usando las probabilidades P. La divergencia KL solamente se define si P y Q suman 1 y si para cualquier i tal que . Si la cantidad aparece en la fórmula, se interpreta como cero.
Para distribuciones P y Q de una variable aleatoria continua, la divergencia KL se define como la integral:4
donde p y q representan las densidades de P y Q.
Más generalmente, si P y Q son medidas de probabilidad sobre un conjunto X, y Q es absolutamente continua con respecto a P, entonces la divergencia Kullback–Leibler de P a Q se define como
donde es la derivada de Radon-Nikodym de Q con respecto a P, y dado que la expresión al lado derecho existe.
De la misma manera, si P es absolutamente continua con respecto a Q, entonces
lo cual se conoce como la entropia de P relativa a Q.
Continuando en este caso, si es cualquier medida en X para la cual and existe, entonces la divergencia Kullback–Leibler de P a Q está dada por
Los logaritmos en estas fórmulas se toman como en base 2 si la información se mide en unidades de bits, o en base e si la información se mide en nats. La mayoría de fórmulas relacionadas con la divergencia KL se mantienen independiente de la base logarítmica.
Nos referiremos a la divergencia de P a Q, aunque algunos autores la
llaman la divergencia "de Q a P" y otros la divergencia "entre P y Q"
(aunque note que no es simétrica). Se debe tener cuidado debido a la
falta de estandarización en la terminología.
No hay comentarios:
Publicar un comentario