- Es la información mutua condicional simétrica?
- ¿Por qué la información mutua es simétrica??
- Cuando la información mutua es igual a la entropía?
- ¿Qué es la entropía condicional en la teoría de la información??
Es la información mutua condicional simétrica?
La información mutua es simétrica (x; y) = i (y; x) \ . Esto sigue directamente de la definición, EQ.
¿Por qué la información mutua es simétrica??
La información mutua (MI) entre dos variables aleatorias captura la cantidad de entropía de información sobre una variable aleatoria al observar la otra. Dado que esa definición no especifica cuál es la variable aleatoria observada, podríamos sospechar que esta es una cantidad simétrica.
Cuando la información mutua es igual a la entropía?
Solo lo hacen si son constantes.. De hecho, si son completamente idénticos, su información mutua será igual a la entropía de cualquiera de los dos: i (x, x) = h (x). Esta entropía es solo cero en el caso de datos constantes, de lo contrario puede tener otros valores.
¿Qué es la entropía condicional en la teoría de la información??
En la teoría de la información, la entropía condicional cuantifica la cantidad de información necesaria para describir el resultado de una variable aleatoria dado que se conoce el valor de otra variable aleatoria.